JP7467262B2 - Image information generating device, method, and program - Google Patents

Image information generating device, method, and program Download PDF

Info

Publication number
JP7467262B2
JP7467262B2 JP2020114270A JP2020114270A JP7467262B2 JP 7467262 B2 JP7467262 B2 JP 7467262B2 JP 2020114270 A JP2020114270 A JP 2020114270A JP 2020114270 A JP2020114270 A JP 2020114270A JP 7467262 B2 JP7467262 B2 JP 7467262B2
Authority
JP
Japan
Prior art keywords
image
omnidirectional
photographing
omnidirectional image
comparison
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020114270A
Other languages
Japanese (ja)
Other versions
JP2022012444A (en
Inventor
ケン キム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
3I Inc
Original Assignee
NTT Communications Corp
3I Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp, 3I Inc filed Critical NTT Communications Corp
Priority to JP2020114270A priority Critical patent/JP7467262B2/en
Priority to PCT/JP2021/018534 priority patent/WO2022004153A1/en
Priority to KR1020237002290A priority patent/KR20230033016A/en
Publication of JP2022012444A publication Critical patent/JP2022012444A/en
Priority to US18/145,888 priority patent/US20230131239A1/en
Application granted granted Critical
Publication of JP7467262B2 publication Critical patent/JP7467262B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Description

この発明の実施形態は、例えば施設等の三次元空間を撮影した画像を用いて上記施設を管理するシステムで使用される画像情報生成装置、方法およびプログラムに関する。 Embodiments of the present invention relate to an image information generating device, method, and program used in a system for managing a facility, for example, using images captured of the three-dimensional space of the facility.

近年、事業所やオフィス、住居等の施設を撮影された画像を用いて管理する技術が提案されている。例えば、特許文献1には、建物内の三次元空間を異なる複数の位置でそれぞれ全方位(360°)を撮影してその撮影画像を記憶媒体に記録し、記録された各全方位画像を接続することにより上記施設内を示す三次元(3D)画像を生成する技術が記載されている。この技術を用いると、例えば施設の管理者または利用者は、現場に出向かなくても施設の状態を3D画像により遠隔的に把握することが可能となる。 In recent years, technologies have been proposed for managing facilities such as business establishments, offices, and residences using captured images. For example, Patent Document 1 describes a technology in which the three-dimensional space inside a building is captured in all directions (360°) from multiple different positions, the captured images are recorded on a storage medium, and a three-dimensional (3D) image showing the inside of the facility is generated by connecting the recorded omnidirectional images. Using this technology, for example, a facility manager or user can remotely grasp the condition of the facility using 3D images without having to go to the site.

米国特許出願公開2018/0075652号明細書US Patent Application Publication No. 2018/0075652

ところで、建築現場や居住空間のインテリア等は時間の経過により変化するが、この変化の様子を画像を用いて管理できるようにすることが求められている。しかしながら、従来では一般に、指定された複数の日時に対応する同一空間の画像を単に記憶媒体から選択して並べて表示するものとなっている。このため、例えば上記複数の日時に撮影された各画像の撮影条件、例えば撮影位置や撮影方向、倍率等が異なると、これらの画像を単に並べて表示しても管理者または利用者は空間の変化の様子を的確に把握することが困難となる。 Meanwhile, the interiors of construction sites and living spaces change over time, and there is a demand for the ability to manage these changes using images. However, conventionally, images of the same space corresponding to multiple specified dates and times are generally simply selected from a storage medium and displayed side by side. For this reason, if the shooting conditions of each image taken on the multiple dates and times, such as the shooting position, shooting direction, magnification, etc., are different, simply displaying these images side by side makes it difficult for the administrator or user to accurately grasp the changes in the space.

この発明は上記事情に着目してなされたもので、一側面では、三次元空間の変化の様子を適切に表現可能な画像情報を生成する技術を提供しようとするものである。 This invention was made in light of the above-mentioned circumstances, and in one aspect aims to provide a technology for generating image information that can appropriately represent changes in three-dimensional space.

上記課題を解決するためにこの発明に係る画像情報生成装置または画像情報生成方法の一態様は、複数の撮影機会において三次元空間を複数の撮影位置でそれぞれ撮影した全方位画像を、前記撮影位置を示す座標と関連付けて記憶した記憶装置を利用する。そして、前記複数の撮影機会のうち、第1の撮影機会および第2の撮影機会にそれぞれ撮影された前記三次元空間における第1の全方位画像と第2の全方位画像との比較を要求する情報が入力された場合に、前記記憶装置に記憶された前記全方位画像のうち、前記第2の撮影機会に撮影されたすべての前記第2の全方位画像の中から、その撮影位置座標が前記第1の全方位画像の撮影位置座標に対し最も近い第2の全方位画像を選択する。また、選択に際し、前記第2の撮影機会に撮影されたすべての前記第2の全方位画像の中から選択された前記第2の全方位画像の撮影位置座標が、前記第1の全方位画像の撮影位置座標から予め設定された距離以上離れている場合に、選択された前記第2の全方位画像を前記合成画像の生成対象から除外する。そして、選択された前記第2の全方位画像の表示範囲および表示向きを、前記第1の全方位画像の表示範囲および撮影方向に対応するように調整し、調整された前記第2の全方位画像と前記第1の全方位画像とを比較可能に配置した合成画像を生成し出力するようにしたものである。 In order to solve the above problem, one aspect of the image information generating device or image information generating method according to the present invention utilizes a storage device that stores omnidirectional images captured in a three-dimensional space at a plurality of shooting positions at a plurality of shooting opportunities in association with coordinates indicating the shooting positions. When information is input requesting a comparison between a first omnidirectional image and a second omnidirectional image in the three-dimensional space captured at a first shooting opportunity and a second shooting opportunity among the plurality of shooting opportunities, a second omnidirectional image whose shooting position coordinates are closest to the shooting position coordinates of the first omnidirectional image is selected from all the second omnidirectional images captured at the second shooting opportunity among the omnidirectional images stored in the storage device. When the shooting position coordinates of the second omnidirectional image selected from all the second omnidirectional images captured at the second shooting opportunity are away from the shooting position coordinates of the first omnidirectional image by a predetermined distance or more, the selected second omnidirectional image is excluded from the target for generating the composite image. Then, the display range and display orientation of the selected second omnidirectional image are adjusted to correspond to the display range and shooting direction of the first omnidirectional image, and a composite image in which the adjusted second omnidirectional image and the first omnidirectional image are arranged so as to be comparable is generated and output.

この発明に係る一態様によれば、比較の基準となる画像と比較対象の画像の撮影位置が異なる場合でも、撮影位置が比較基準となる画像の撮影位置に最も近い比較対象の画像が選択され、さらに選択された比較対象画像のアングルが比較基準の画像に対応するように調整された上で、両画像を対比する表示画像情報が生成される。このため、三次元空間の変化の様子を適切に表現可能な画像情報を生成することができる。 According to one aspect of the present invention, even if the shooting positions of the comparison reference image and the comparison target image are different, the comparison target image whose shooting position is closest to that of the comparison reference image is selected, and the angle of the selected comparison target image is adjusted to correspond to the comparison reference image, and then display image information for comparing the two images is generated. This makes it possible to generate image information that can appropriately express the state of change in three-dimensional space.

図1は、この発明の一実施形態に係る画像情報生成装置として動作するサーバ装置を含むシステムの概略構成図である。FIG. 1 is a schematic diagram showing the configuration of a system including a server device that operates as an image information generating device according to an embodiment of the present invention. 図2は、図1に示したシステムにおけるサーバ装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a hardware configuration of a server device in the system shown in FIG. 図3は、図1に示したシステムにおけるサーバ装置のソフトウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a software configuration of the server device in the system shown in FIG. 図4は、図3に示したサーバ装置による画像情報生成処理の手順と処理内容の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of the procedure and contents of the image information generating process performed by the server device shown in FIG. 図5は、比較基準となる全方位画像の撮影位置の一例を示す図である。FIG. 5 is a diagram showing an example of the shooting positions of the omnidirectional image serving as a comparison reference. 図6は、比較対象となる全方位画像の撮影位置の一例を示す図である。FIG. 6 is a diagram showing an example of the shooting positions of omnidirectional images to be compared. 図7は、表示画像情報の一例を示す図である。FIG. 7 is a diagram showing an example of the display image information.

以下、図面を参照してこの発明に係わる実施形態を説明する。 The following describes an embodiment of the present invention with reference to the drawings.

[一実施形態]
(構成例)
(1)システム
図1は、この発明の一実施形態に係る画像情報生成装置を含むシステムの概略構成図である。
このシステムは、画像情報生成装置として動作するサーバ装置SVを備えている。そして、このサーバ装置SVと、ユーザが使用するユーザ端末MT,UT1~UTnとの間で、ネットワークNWを介してデータ通信が可能に構成されている。
[One embodiment]
(Configuration example)
(1) System FIG. 1 is a schematic diagram of a system including an image information generating device according to an embodiment of the present invention.
This system includes a server device SV that operates as an image information generating device, and is configured to enable data communication between the server device SV and user terminals MT, UT1 to UTn used by users via a network NW.

ユーザ端末MT,UT1~UTnには、全方位画像の登録を行うユーザが使用するユーザ端末MTと、登録された画像を閲覧するユーザが使用するユーザ端末UT1~UTnとがあり、いずれも例えばスマートフォンやダブレット型端末等の携帯情報端末により構成される。なお、ユーザ端末としてはノート型のパーソナルコンピュータやデスクトップ型のパーソナルコンピュータを用いてもよく、またネットワークNWへの接続インタフェースについても無線に限らず有線を使用してもよい。 The user terminals MT, UT1 to UTn include a user terminal MT used by a user who registers omnidirectional images, and user terminals UT1 to UTn used by users who view the registered images, all of which are configured as mobile information terminals such as smartphones or tablet terminals. Note that the user terminals may be notebook or desktop personal computers, and the connection interface to the network NW may be wired or not wireless.

ユーザ端末MTは、カメラCMとの間で例えば信号ケーブルまたはBluetooth(登録商標)等の小電力無線データ通信インタフェースを介してデータ伝送が可能となっている。カメラCMは、全方位を撮影可能なカメラからなり、例えば高さ位置を一定に保持することが可能な三脚に固定されている。カメラCMは、撮影された全方位画像データを、上記小電力無線データ通信インタフェースを介してユーザ端末MTへ送信する。 The user terminal MT is capable of transmitting data between the camera CM and the user terminal MT via, for example, a signal cable or a low-power wireless data communication interface such as Bluetooth (registered trademark). The camera CM is made up of a camera capable of capturing images in all directions, and is fixed, for example, to a tripod capable of maintaining a constant height position. The camera CM transmits captured omnidirectional image data to the user terminal MT via the low-power wireless data communication interface.

またユーザ端末MTは、例えばGPS(Global Positioning System)または無線LAN(Local Area Network)から送信される信号を利用して現在位置を測定する機能を有する。またユーザ端末MTは、例えば建物内のように上記位置測定機能を使用できない場合に備え、ユーザが基準点となる位置座標を手動入力する機能を有している。 The user terminal MT also has a function for measuring the current location using signals transmitted from, for example, a GPS (Global Positioning System) or a wireless LAN (Local Area Network). The user terminal MT also has a function for the user to manually input the location coordinates that serve as a reference point in case the above-mentioned location measurement function cannot be used, for example, inside a building.

ユーザ端末MTは、上記カメラCMから一つの位置で撮影された全方位画像データを受信するごとに、当該撮影位置を表す位置座標を、上記基準点の位置座標と、内蔵する動きセンサ(例えば加速度センサとジャイロセンサ)により計測された移動距離および移動方向とをもとに算出する。そして、受信された上記全方位画像データを、計算された上記撮影位置座標と撮影日時を表す情報と共に、ネットワークNWを介してサーバ装置SVへ送信する。これらの処理は、事前にインストールされた専用のアプリケーションにより実行される。 Each time the user terminal MT receives omnidirectional image data taken at a position from the camera CM, it calculates the position coordinates representing the shooting position based on the position coordinates of the reference point and the movement distance and movement direction measured by the built-in motion sensor (e.g., an acceleration sensor and a gyro sensor). Then, it transmits the received omnidirectional image data, together with the calculated shooting position coordinates and information representing the shooting date and time, to the server device SV via the network NW. These processes are executed by a dedicated application that has been installed in advance.

ユーザ端末UT1~UTnは、例えばブラウザを有する。そして、上記ブラウザによりサーバ装置SVにアクセスし、ユーザの入力操作に応じて、所望の施設およびフロアの、所望の日時における所望の場所の画像をダウンロードして、ディスプレイに表示する機能を有している。 The user terminals UT1 to UTn each have, for example, a browser. The user terminals UT1 to UTn have a function of accessing the server device SV using the browser, downloading an image of a desired location at a desired date and time in a desired facility and on a desired floor in response to an input operation by the user, and displaying the image on the display.

なお、ネットワークNWは、インターネットを含むIP網と、このIP網にアクセスするためのアクセスネット網とから構成される。アクセス網としては、例えば公衆有線網や携帯電話網、有線LAN(Local Area Network)、無線LAN、CATV(Cable Television)等が用いられる。 The network NW is composed of an IP network including the Internet and an access network for accessing this IP network. Examples of access networks that can be used include a public wired network, a mobile phone network, a wired LAN (Local Area Network), a wireless LAN, and a CATV (Cable Television).

(2)サーバ装置SV
図2および図3は、それぞれサーバ装置SVのハードウェア構成およびソフトウェア構成を示すブロック図である。
サーバ装置SVは、クラウド上またはWeb上に設置されたサーバコンピュータからなり、中央処理ユニット(Central Processing Unit:CPU)等のハードウェアプロセッサを有する制御部1を備える。そして、この制御部1に対しバス4を介して記憶部2および通信インタフェース(通信I/F)3を接続したものとなっている。
(2) Server device SV
2 and 3 are block diagrams showing the hardware and software configurations of the server device SV, respectively.
The server device SV is a server computer installed on the cloud or the Web, and includes a control unit 1 having a hardware processor such as a central processing unit (CPU). A storage unit 2 and a communication interface (communication I/F) 3 are connected to the control unit 1 via a bus 4.

通信I/F3は、制御部1の制御の下、ネットワークNWを介して上記ユーザ端末MT,UT1~UTnとの間でデータの送受信を行うもので、例えば有線ネットワーク用のインタフェースが用いられる。 The communication I/F 3 transmits and receives data between the user terminals MT, UT1 to UTn via the network NW under the control of the control unit 1, and may be, for example, an interface for a wired network.

記憶部2は、例えば、主記憶媒体としてHDD(Hard Disk Drive)またはSSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリを使用する。なお、記憶媒体としては、ROM(Read Only Memory)およびRAM(Random Access Memory)を組み合わせて使用してもよい。 The storage unit 2 uses, for example, a non-volatile memory such as a hard disk drive (HDD) or a solid state drive (SSD) as a main storage medium, which can be written to and read from at any time. Note that a combination of read only memory (ROM) and random access memory (RAM) may also be used as the storage medium.

記憶部2の記憶領域には、プログラム記憶領域とデータ記憶領域が設けられている。プログラム記憶領域には、OS(Operating System)等のミドルウェアに加えて、この発明の一実施形態に係る各種制御処理を実行するために必要なプログラムが格納される。 The memory area of the memory unit 2 includes a program memory area and a data memory area. The program memory area stores middleware such as an OS (Operating System), as well as programs necessary to execute various control processes according to an embodiment of the present invention.

データ記憶領域には、一実施形態を実施する上で必要な記憶部として、全方位画像記憶部21と、平面図データ記憶部22と、調整済み画像記憶部23が設けられ、さらに制御部1による各種処理に必要な作業用の記憶部が設けられている。 The data storage area includes an omnidirectional image storage unit 21, a plan view data storage unit 22, and an adjusted image storage unit 23 as storage units required to implement one embodiment, and further includes a storage unit for operations required for various processes by the control unit 1.

全方位画像記憶部21は、ユーザ端末MTから取得された対象施設のフロアごとの全方位画像群を記憶するために使用される。平面図データ記憶部22は、上記対象施設の各フロアの平面図データを記憶するために用いられる。調整済み画像記憶部23は、制御部1による比較画像調整処理により調整された画像を記憶するために使用される。 The omnidirectional image storage unit 21 is used to store a group of omnidirectional images for each floor of the target facility acquired from the user terminal MT. The floor plan data storage unit 22 is used to store floor plan data for each floor of the target facility. The adjusted image storage unit 23 is used to store images adjusted by the comparison image adjustment process performed by the control unit 1.

制御部1は、この発明の一実施形態に係る制御処理機能として、全方位画像取得部11と、画像閲覧制御部12と、比較対象画像選択部13と、画像アングル調整部14と、比較表示画像生成出力部15を備えている。これらの処理部11~15は、何れも記憶部2内のプログラム記憶領域に格納されたプログラムをハードウェアプロセッサに実行させることにより実現される。 The control unit 1 includes, as control processing functions according to one embodiment of the present invention, an omnidirectional image acquisition unit 11, an image viewing control unit 12, a comparison image selection unit 13, an image angle adjustment unit 14, and a comparison display image generation and output unit 15. All of these processing units 11 to 15 are realized by causing a hardware processor to execute a program stored in a program storage area in the storage unit 2.

全方位画像取得部11は、ユーザ端末MTから、例えば建物内の複数の位置の各々で撮影された全方位画像データが送られるごとに、この全方位画像データを通信I/F3を介して受信する。そして、受信された上記全方位画像データを、当該画像データと共に受信された撮影位置座標と撮影日時を表す情報と関連付けて全方位画像記憶部21に記憶させる処理を行う。 The omnidirectional image acquisition unit 11 receives omnidirectional image data from the user terminal MT via the communication I/F 3 each time the data is sent, the data having been taken at each of a number of positions within a building, for example. Then, the omnidirectional image acquisition unit 11 performs processing to associate the received omnidirectional image data with information indicating the coordinates of the photographing position and the photographing date and time, which were received together with the image data, and store the data in the omnidirectional image storage unit 21.

画像閲覧制御部12は、ユーザ端末UT1~UTnから送信される画像閲覧要求を通信I/F3を介して受信した場合に、要求内容に応じて該当する全方位画像を要求元のユーザ端末UT1~UTnへダウンロードする処理を行う。また画像閲覧制御部12は、ユーザ端末UT1~UTnから画像比較要求を受信した場合には、比較対象画像選択部13に当該画像比較要求を渡す処理を行う。 When the image viewing control unit 12 receives an image viewing request sent from the user terminals UT1 to UTn via the communication I/F 3, it performs a process of downloading the corresponding omnidirectional image to the requesting user terminal UT1 to UTn according to the request content. In addition, when the image viewing control unit 12 receives an image comparison request from the user terminals UT1 to UTn, it performs a process of passing the image comparison request to the comparison target image selection unit 13.

画像比較要求には、比較基準を指定する情報および比較対象を指定する情報の両方が含まれる場合と、比較対象を指定する情報のみが含まれる場合がある。前者は、ユーザが最初から比較画像の閲覧を希望する場合に用いられ、後者はユーザが既に比較基準となる画像を閲覧中で、比較対象のみを指定する場合に用いられる。 An image comparison request may contain both information specifying the comparison criteria and information specifying the comparison target, or it may contain only information specifying the comparison target. The former is used when the user wishes to view the comparison images from the beginning, and the latter is used when the user is already viewing the comparison criteria image and only specifies the comparison target.

比較対象画像選択部13は、全方位画像記憶部に記憶された、上記指定された施設名および対象エリアに係るすべての全方位画像の中から、上記比較対象を指定する情報に含まれる撮影日時に対応する全方位画像を先ず選択し、選択された各全方位画像の中から、撮影位置座標が、閲覧中の比較基準の画像の撮影位置座標、または上記比較基準を指定する情報に含まれる撮影位置座標に対し最も近い全方位画像を選択する処理を行う。 The comparison target image selection unit 13 first selects an omnidirectional image corresponding to the shooting date and time included in the information specifying the comparison target from among all omnidirectional images related to the specified facility name and target area stored in the omnidirectional image storage unit, and then selects from each selected omnidirectional image the omnidirectional image whose shooting position coordinates are closest to the shooting position coordinates of the comparison standard image being viewed or the shooting position coordinates included in the information specifying the comparison standard.

画像アングル調整部14は、上記比較基準を指定する情報により指定された画像と、上記比較対象画像選択部13により選択された全方位画像とを比較し、比較対象の全方位画像のアングル(例えば表示範囲と撮影方向)を、比較基準となる画像のアングルと同一となるように、或いは近づけるように調整する。そして、調整後の比較対象の画像を比較基準の画像と共に調整済み画像記憶部23に一時保存する処理を行う。 The image angle adjustment unit 14 compares the image specified by the information specifying the comparison standard with the omnidirectional image selected by the comparison target image selection unit 13, and adjusts the angle (e.g., display range and shooting direction) of the comparison target omnidirectional image so that it is the same as or close to the angle of the comparison target image. Then, the comparison target image after adjustment is temporarily stored in the adjusted image storage unit 23 together with the comparison target image.

比較表示画像生成出力部15は、上記調整済み画像記憶部23に保存された調整後の比較対象の画像と比較基準の画像を読み込み、両画像を合成することで左右に並べて配置した表示画像データを生成する。そして、生成された上記表示画像データを通信I/F3を介して、要求元のユーザ端末UT1~UTnへ送信する処理を行う。 The comparison display image generation and output unit 15 reads the adjusted comparison target image and comparison reference image stored in the adjusted image storage unit 23, and generates display image data in which the two images are arranged side by side by combining the two images. The comparison display image data thus generated is then transmitted to the requesting user terminals UT1 to UTn via the communication I/F 3.

(動作例)
次に、以上のように構成されたサーバ装置SVの動作例を説明する。図4はその処理手順と処理内容の一例を示すフローチャートである。
(Example of operation)
Next, an example of the operation of the server device SV configured as above will be described with reference to the flowchart of FIG.

(1)全方位画像の取得
例えば、所望の建物の所望のフロアにおける多地点の全方位画像を撮影し記録しようとする場合、ユーザは先ず登録対象の建物とそのフロアの平面図データを用いて、フロアの撮影を開始しようとする位置を基準点として定め、この基準点の位置座標を上記平面図データの座標系から求めてユーザ端末MTに入力する。この結果ユーザ端末MTには、上記対象フロアの基準点の位置座標が設定される。なお、登録対象の建物とフロアの平面図データは、サーバ装置SVの平面図データ記憶部22に事前に記憶されており、ユーザ端末MTはサーバ装置SVから所望の建物およびフロアの平面図データをダウンロードすることで取得できる。
(1) Acquisition of Omnidirectional Images For example, when taking and recording omnidirectional images of multiple points on a desired floor of a desired building, the user first uses the floor plan data of the building to be registered and its floor to determine the position where the user wants to start photographing the floor as a reference point, and obtains the position coordinates of this reference point from the coordinate system of the floor plan data and inputs it to the user terminal MT. As a result, the position coordinates of the reference point of the target floor are set in the user terminal MT. The floor plan data of the building and floor to be registered is stored in advance in the floor plan data storage unit 22 of the server device SV, and the user terminal MT can obtain the floor plan data of the desired building and floor by downloading it from the server device SV.

そして、ユーザはカメラCMを操作して上記基準点において全方位を撮影する。なお、カメラCMの撮影操作は、ユーザ端末MTにより遠隔的に行ってもよい。上記撮影操作が行われると、カメラCMにより撮影された上記基準点の全方位画像データがユーザ端末MTに送信され、当該全方位画像データはユーザ端末MTからサーバ装置SVへ送信される。このときユーザ端末MTは、上記基準点の位置座標と撮影日時を表す情報を、上記全方位画像データに付加して送信する。 The user then operates the camera CM to capture images in all directions at the reference point. The camera CM may be operated remotely by the user terminal MT. When the above-mentioned capture operation is performed, omnidirectional image data of the reference point captured by the camera CM is transmitted to the user terminal MT, and the omnidirectional image data is transmitted from the user terminal MT to the server device SV. At this time, the user terminal MT adds information indicating the position coordinates of the reference point and the capture date and time to the omnidirectional image data and transmits it.

上記基準点における撮影を終了すると、ユーザは次の撮影位置(撮影ポイント)に移動して同様にカメラCMにより全方位撮影を行う。ユーザ端末MTは、上記カメラCMから上記新たな撮影ポイントで撮影された全方位画像データを受信すると、当該全方位画像データを撮影位置座標と撮影日時を表す情報と共にサーバ装置SVへ送信する。このとき、撮影位置座標は、上記基準点において設定された位置座標と、ユーザ端末MTの距離センサ(例えば加速度センサとジャイロセンサ)により計測された、基準点から上記新たな撮影ポイントまでの移動距離および移動方向とにより算出される。 When the user has finished photographing at the reference point, he or she moves to the next photographing position (photographing point) and similarly photographs all-directionally using the camera CM. When the user terminal MT receives from the camera CM the all-directional image data photographed at the new photographing point, it transmits the all-directional image data together with information indicating the photographing position coordinates and the photographing date and time to the server device SV. At this time, the photographing position coordinates are calculated from the position coordinates set at the reference point and the travel distance and travel direction from the reference point to the new photographing point measured by a distance sensor (e.g., an acceleration sensor and a gyro sensor) of the user terminal MT.

以後同様にユーザ端末MTは、ユーザが新たな撮影ポイントに移動してカメラCMにより全方位撮影を行うごとに、カメラCMから送信される全方位画像データを、その都度動きセンサの計測値をもとに算出される撮影位置座標と、撮影日時を表す情報と共に、サーバ装置SVへ送信する。 Similarly, from then on, each time the user moves to a new shooting point and takes an omnidirectional photograph using the camera CM, the user terminal MT transmits the omnidirectional image data sent from the camera CM to the server device SV together with the shooting position coordinates calculated based on the measurement values of the motion sensor each time and information indicating the shooting date and time.

これに対し、サーバ装置SVは、全方位画像取得部11の制御の下、ステップS10で画像撮影の開始を監視している。そして、ユーザ端末MTから画像撮影の開始通知を受信すると、ステップS11に移行して全方位画像データの受信・記憶処理を以下のように実行する。 In response to this, the server device SV monitors the start of image capture in step S10 under the control of the omnidirectional image acquisition unit 11. Then, when it receives a notification of the start of image capture from the user terminal MT, it proceeds to step S11 and executes the process of receiving and storing omnidirectional image data as follows.

すなわち、全方位画像取得部11は、ユーザ端末MTから送信される全方位画像データを通信I/F3を介して受信し、受信された全方位画像データを、当該データと共に受信された撮影位置座標および撮影日時を表す情報と関連付けた状態で、全方位画像記憶部21に記憶させる。またそれと共に全方位画像取得部11は、上記撮影位置座標を、平面図データ記憶部22に記憶されている該当するフロアの平面図データにプロットする。 That is, the omnidirectional image acquisition unit 11 receives omnidirectional image data transmitted from the user terminal MT via the communication I/F 3, and stores the received omnidirectional image data in the omnidirectional image storage unit 21 in a state in which the data is associated with information indicating the shooting position coordinates and shooting date and time received together with the data. At the same time, the omnidirectional image acquisition unit 11 plots the shooting position coordinates on the floor plan data of the corresponding floor stored in the floor plan data storage unit 22.

以後同様に全方位画像取得部11は、ユーザ端末MTから全方位画像データが送信されるごとに、上記ステップS11により全方位画像データの受信・記憶処理を繰り返し実行する。なお、この全方位画像データの受信・記憶処理は、全方位画像取得部11がユーザ端末MTから撮影終了通知が送られたことをステップS12で検出した時点で終了する。 Similarly thereafter, the omnidirectional image acquisition unit 11 repeatedly executes the process of receiving and storing the omnidirectional image data in step S11 each time the omnidirectional image data is transmitted from the user terminal MT. Note that this process of receiving and storing the omnidirectional image data ends when the omnidirectional image acquisition unit 11 detects in step S12 that a notification of the end of image capture has been sent from the user terminal MT.

なお、以上述べた画像撮影は、同一日時に複数の人がそれぞれ行う場合と、異なる日時に同一の人または異なる人がそれぞれ行う場合を含んでおり、いずれの画像撮影で得られた画像もそれぞれサーバ装置SVに記憶される。また、上記画像撮影が行われるごとに、その撮影ポイントがプロットされた平面図データが生成され、平面図データ記憶部22に記憶される。なお、上記撮影ポイントは、すべての撮影ポイントについてプロットされなくてもよく、少なくとも1つの撮影ポイントがプロットされるようにしてもよい。 The image capturing described above may be performed by multiple people on the same date and time, or may be performed by the same or different people on different dates and times, and the images obtained by either image capturing are stored in the server device SV. Each time an image is captured, floor plan data is generated in which the capturing points are plotted, and stored in the floor plan data storage unit 22. It is not necessary to plot all of the capturing points, and at least one capturing point may be plotted.

(2)全方位画像による三次元閲覧ツアー
サーバ装置SVに記憶された全方位画像を閲覧する場合、ユーザは自身のユーザ端末UT1においてブラウザを起動し、サーバ装置SVに対しアクセスする。そうすると、サーバ装置SVは画像閲覧制御部12の制御の下、先ずホーム画面を送信する。この状態で、ユーザが閲覧を希望する施設名とそのフロア番号を指定すると、サーバ装置SVは画像閲覧制御部12により該当するフロアの平面図データを送信し、ユーザ端末UT1に表示させる。
(2) Three-dimensional viewing tour using omnidirectional images When viewing omnidirectional images stored in the server SV, the user starts a browser on his/her user terminal UT1 and accesses the server SV. The server SV then first transmits a home screen under the control of the image viewing control unit 12. In this state, when the user specifies the name of the facility that the user wishes to view and its floor number, the server SV transmits floor plan data of the corresponding floor by the image viewing control unit 12, and causes the data to be displayed on the user terminal UT1.

図5は、このときダウンロードされる平面図データの一例を示すものである。図5に示すように平面図データには、フロアの間取りと撮影位置(撮影ポイント)および撮影順序が丸数字で表示されている。この状態でユーザが、例えば任意の撮影ポイントを指定すると、当該撮影ポイントにおける全方位画像がサーバ装置SVからユーザ端末UT1にダウンロードされる。そして、ユーザが例えばマウス操作により画像の表示方向を変化させると、この操作に応動して上記全方位画像の表示対象範囲が360°に渡って変化する。また、マウス操作により順次撮影ポイントを移動させると、各撮影ポイントにおける全方位画像が順次ダウンロードされて表示される。かくして、上記フロアの各部屋について全方位画像を用いた三次元閲覧ツアーが可能となる。 Figure 5 shows an example of the floor plan data downloaded at this time. As shown in Figure 5, the floor plan data displays the floor layout, shooting positions (shooting points), and shooting order in circled numbers. In this state, when the user specifies an arbitrary shooting point, for example, the omnidirectional image at that shooting point is downloaded from the server device SV to the user terminal UT1. Then, when the user changes the display direction of the image, for example by operating the mouse, the display range of the omnidirectional image changes over 360° in response to this operation. Also, when the shooting points are moved sequentially by operating the mouse, the omnidirectional images at each shooting point are downloaded sequentially and displayed. In this way, a three-dimensional viewing tour using omnidirectional images of each room on the floor is possible.

(3)比較対象画像の選択
上記三次元閲覧ツアーの最中に、ユーザが例えばいま表示中の任意の部屋の画像(比較基準の画像)と、過去の別の日時に撮影された同じ部屋の画像(比較対象の画像)とを比較するために、ユーザ端末UT1において上記別の撮影日時を入力したとする。そうするとユーザ端末UT1からサーバ装置SVに対し上記別の撮影日時を指定する画像比較要求が送信される。
(3) Selection of a Comparison Image During the three-dimensional browsing tour, suppose that the user inputs a different photographing date and time in the user terminal UT1 in order to compare an image of a given room currently being displayed (a comparison reference image) with an image of the same room taken on a different past date and time (a comparison target image). In response, an image comparison request specifying the different photographing date and time is sent from the user terminal UT1 to the server device SV.

これに対しサーバ装置SVは、ステップS13により上記画像比較要求を受信すると、比較対象画像選択部13の制御の下、先ずステップS14において、上記三次元閲覧ツアーにより表示中の画像の撮影位置座標を全方位画像記憶部21から特定する。続いてステップS15において、全方位画像記憶部21を検索することで、上記画像比較要求により指定された別の撮影日時における同一フロアのすべての全方位画像の中から、その撮影位置座標が上記比較基準画像の撮影位置座標に対し最も近い全方位画像を選択する。 In response to this, when the server device SV receives the image comparison request in step S13, under the control of the comparison target image selection unit 13, first in step S14, it identifies the shooting position coordinates of the image being displayed in the 3D browsing tour from the omnidirectional image storage unit 21. Next, in step S15, by searching the omnidirectional image storage unit 21, it selects the omnidirectional image whose shooting position coordinates are closest to the shooting position coordinates of the comparison reference image from among all the omnidirectional images of the same floor at the different shooting date and time specified by the image comparison request.

例えば、いまユーザが図5の“10”の撮影ポイントP1において撮影された全方位画像を図中Q1に示すアングル(表示範囲と方向)で閲覧中だったとする。また、ユーザが比較対象として指定した別の撮影日時における同一フロアの撮影ポイントが、図6に示すものだったとする。この場合、サーバ装置SVの比較対象画像選択部13は、上記図6に示したすべての撮影ポイントの中から、図5に示した閲覧中の撮影ポイントP1との間の距離が最も短い撮影ポイントP2を選択する。 For example, suppose that the user is currently viewing an all-directional image taken at photography point P1, "10" in Figure 5, at the angle (display range and direction) shown in Q1 in the figure. Also suppose that the photography point on the same floor at a different photography date and time specified by the user as a comparison target is the one shown in Figure 6. In this case, the comparison target image selection unit 13 of the server device SV selects, from all the photography points shown in Figure 6, photography point P2 that is the closest to the photography point P1 being viewed, shown in Figure 5.

(4)比較対象画像のアングル調整
サーバ装置SVは、次に画像アングル調整部14の制御の下、ステップS16において、選択された上記撮影ポイントP2に対応する全方位画像を全方位画像記憶部21から読み出し、この読み出された比較対象の全方位画像を上記比較基準の表示画像と比較する。そして、比較対象画像のアングルQ2を比較基準画像のアングルQ1に近づけるように、比較対象画像の表示範囲および表示方向を調整する。この調整処理は、例えば、表示されている比較基準画像と比較対象画像との対照位置を画素単位でシフトさせながら、比較基準画像と比較対象画像との間の対応する各画素間の差分値が最小となるシフト位置を探索することにより行われる。
(4) Angle Adjustment of Comparison Image Next, under the control of the image angle adjustment unit 14, in step S16, the server device SV reads out the omnidirectional image corresponding to the selected shooting point P2 from the omnidirectional image storage unit 21, and compares this read-out comparison object omnidirectional image with the display image of the comparison reference. Then, the display range and display direction of the comparison image are adjusted so that the angle Q2 of the comparison image approaches the angle Q1 of the comparison reference image. This adjustment process is performed, for example, by shifting the contrast position between the displayed comparison reference image and the comparison image in pixel units and searching for a shift position that minimizes the difference value between each corresponding pixel between the comparison reference image and the comparison image.

画像アングル調整部14は、上記比較対象画像に対する表示範囲および表示方向の調整処理が終了すると、調整された比較対象画像を上記比較基準画像と対応付けて一旦調整済み画像記憶部23に保存させる。 When the image angle adjustment unit 14 has completed the adjustment process of the display range and display direction for the comparison image, it associates the adjusted comparison image with the comparison reference image and temporarily stores the image in the adjusted image storage unit 23.

(5)比較表示画像の生成と送信
サーバ装置SVは、続いて比較表示画像生成出力部15の制御の下、ステップS17において、上記調整済み画像記憶部23から比較基準画像と比較対象画像を読み出し、これらの画像を横方向に並べた状態で合成し、比較表示画像データを生成する。またそれと共に比較表示画像生成出力部15は、上記比較表示画像データの比較基準画像上に、フロアの平面図データを重ねて合成する。この平面図データには閲覧中の画像の撮影ポイントP1とそのアングルQ1が表示される。
(5) Generation and transmission of comparative display image In step S17, the server device SV reads out the comparison reference image and the comparison target image from the adjusted image storage unit 23 under the control of the comparative display image generation and output unit 15, synthesizes these images in a horizontally arranged state, and generates comparative display image data. At the same time, the comparative display image generation and output unit 15 superimposes floor plan data of the floor on the comparative reference image of the comparative display image data and synthesizes it. The photographing point P1 of the image being viewed and its angle Q1 are displayed in this floor plan data.

比較表示画像生成出力部15は、生成された比較表示画像データを、ステップS18により通信I/F3から要求元のユーザ端末UT1に向け送信する。 In step S18, the comparison display image generation and output unit 15 transmits the generated comparison display image data from the communication I/F 3 to the requesting user terminal UT1.

ユーザ端末UT1は、サーバ装置SVから送信された上記比較表示画像データを受信すると、当該比較表示画像をそれまで表示されていた比較基準画像に代わってディスプレイに表示する。図7は、この比較表示画像の表示例を示すもので、画面右側が比較基準画像を、左側が比較対象画像をそれぞれ示している。図中RDは比較基準画像上に表示されたフロアの平面図である。 When the user terminal UT1 receives the comparison display image data transmitted from the server device SV, it displays the comparison display image on the display in place of the comparison reference image that had been displayed up until that point. Figure 7 shows an example of this comparison display image, with the comparison reference image shown on the right side of the screen and the comparison target image on the left side. In the figure, RD is a plan view of the floor displayed on the comparison reference image.

(作用・効果)
以上述べたように一実施形態では、施設のフロアごとにその三次元空間を複数の位置でそれぞれ撮影された全方位画像を全方位画像記憶部21に記憶しておく。そして、撮影日時の異なる同一フロアの2つの画像を比較表示する際に、比較対象となるすべての全方位画像の中から、その撮影位置座標が比較基準となる画像の撮影位置座標に最も近い全方位画像を選択し、選択された比較対象の全方位画像のアングルを比較基準となる画像のアングルと対応するように調整し、調整後の比較対象の画像と比較基準の画像とを並べて配置した比較表示画像データを生成し、ユーザ端末UT1へ送信するようにしている。
(Action and Effects)
As described above, in one embodiment, omnidirectional images taken at multiple positions in the three-dimensional space for each floor of a facility are stored in the omnidirectional image storage unit 21. When two images of the same floor taken at different times are compared and displayed for comparison, the omnidirectional image whose shooting position coordinates are closest to the shooting position coordinates of the comparison reference image is selected from all the omnidirectional images to be compared, the angle of the selected comparison reference omnidirectional image is adjusted so that it corresponds to the angle of the comparison reference image, and comparison display image data in which the adjusted comparison reference image and the comparison reference image are arranged side by side is generated and transmitted to the user terminal UT1.

従って一実施形態によれば、比較基準となる画像と比較対象の画像の撮影位置が異なる場合でも、撮影位置が比較基準の画像の撮影位置に最も近い比較対象の画像が選択され、さらに選択された比較対象の画像のアングルが比較基準の画像のアングルに対応するように調整されたのち、両画像を比較する表示画像情報が生成される。このため、ユーザは三次元空間の変化の様子を適切に表現可能な画像情報を生成することができる。 Therefore, according to one embodiment, even if the shooting positions of the comparison reference image and the comparison target image are different, the comparison target image whose shooting position is closest to the shooting position of the comparison reference image is selected, and the angle of the selected comparison target image is adjusted so that it corresponds to the angle of the comparison reference image, and then display image information for comparing the two images is generated. This allows the user to generate image information that can appropriately express the state of change in three-dimensional space.

また、比較表示画像データにはフロアの平面図データが重ねて表示され、この平面図データには撮影ポイントと撮影アングルが表示されるので、ユーザは自身がいま閲覧している画像の撮影位置と撮影方向を平面図により一目で確認することができる。 Floor plan data is also overlaid on the comparison display image data, and this plan data shows the shooting point and shooting angle, so users can check at a glance from the plan view the shooting location and direction of the image they are currently viewing.

[他の実施形態]
(1)比較対象の全方位画像の中に、比較基準の画像の撮影位置に対応する画像が存在しない場合には、比較基準の画像と比較対象の画像とを比較する画像データを生成することは困難である。
[Other embodiments]
(1) If there is no image in the omnidirectional image to be compared that corresponds to the shooting position of the comparison reference image, it is difficult to generate image data for comparing the comparison reference image and the comparison target image.

そこで、このような場合には、比較対象画像選択部13により撮影位置座標が最も近い比較対象画像を選択する際に、比較基準画像の撮影位置座標との間の距離が予め設定されたしきい値以上離れているか否かを判定する。そして、撮影位置座標間の距離がしきい値以上離れていると判定された場合には、このときの全方位画像を比較対象画像として選択せず、比較表示画像生成出力部15にその旨を通知する。比較表示画像生成出力部15は、対応する比較対象画像が存在しない旨のメッセージを生成し、このメッセージをユーザ端末UT1へ送信して表示させる。このようにすると、比較対象として不適切な画像が表示される不具合を防止することができる。 In such a case, when the comparison image selection unit 13 selects the comparison image with the closest shooting position coordinates, it determines whether the distance between the shooting position coordinates of the comparison reference image is greater than or equal to a preset threshold value. If it is determined that the distance between the shooting position coordinates is greater than or equal to the threshold value, the omnidirectional image at that time is not selected as the comparison image, and the comparison display image generation and output unit 15 is notified of this. The comparison display image generation and output unit 15 generates a message to the effect that no corresponding comparison image exists, and transmits this message to the user terminal UT1 for display. In this way, it is possible to prevent the problem of an inappropriate image being displayed as a comparison image.

(2)前記一実施形態では、同一場所における異なる2つの日時の全方位画像を並べて表示する比較表示画像データを生成する場合を例にとって説明したが、異なる3以上の日時の画像を並べて表示する比較表示画像データを生成するようにしてもよい。 (2) In the above embodiment, an example was given of generating comparative display image data that displays omnidirectional images of the same location at two different dates and times side by side, but comparative display image data may be generated that displays images at three or more different dates and times side by side.

(3)前記一実施形態では、異なる2つの日時に撮影された画像を比較表示する比較表示画像データを生成する場合を例にとって説明したが、同一のフロアについて同日に異なる2人のユーザがそれぞれ撮影した全方位画像を比較表示するデータを生成するようにしてもよい。 (3) In the above embodiment, an example was given of generating comparative display image data that comparatively displays images taken at two different dates and times. However, data may be generated that comparatively displays omnidirectional images taken on the same day by two different users on the same floor.

(4)前記一実施形態は、画像情報生成装置の機能をサーバ装置SVに設けた場合を例にとって説明したが、エッジルータ等のネットワーク間接続装置やユーザ端末に設けてもよい。また、制御部と記憶部とを別々のサーバ装置または端末装置に分散して設け、これらを通信回線またはネットワークを介して接続するようにしてもよい。 (4) In the above embodiment, the functions of the image information generating device are provided in the server device SV, but they may be provided in an inter-network connection device such as an edge router or in a user terminal. In addition, the control unit and the storage unit may be provided separately in separate server devices or terminal devices, and these may be connected via a communication line or network.

(5)その他、画像情報生成装置の構成や画像生成処理の手順および処理内容、三次元空間の種類等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。 (5) In addition, various modifications can be made to the configuration of the image information generating device, the procedure and processing content of the image generating process, the type of three-dimensional space, etc., without departing from the spirit and scope of this invention.

要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, this invention is not limited to the above-mentioned embodiment as it is, and in the implementation stage, the components can be modified and embodied without departing from the gist of the invention. Furthermore, various inventions can be formed by appropriately combining multiple components disclosed in the above-mentioned embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components from different embodiments may be appropriately combined.

SV…サーバ装置
MT,UT1~UTn…ユーザ端末
NW…ネットワーク
CM…カメラ
1…制御部
2…記憶部
3…通信I/F
4…バス
11…全方位画像取得部
12…画像閲覧制御部
13…比較対象画像選択部
14…画像アングル調整部
15…比較表示画像生成出力部
21…全方位画像記憶部
22…平面図データ記憶部
23…調整済み画像記憶部
SV: Server device MT, UT1 to UTn: User terminal NW: Network CM: Camera 1: Control unit 2: Storage unit 3: Communication I/F
Description of the Reference Numerals 4: bus 11: omnidirectional image acquisition unit 12: image viewing control unit 13: comparison image selection unit 14: image angle adjustment unit 15: comparison display image generation and output unit 21: omnidirectional image storage unit 22: plan view data storage unit 23: adjusted image storage unit

Claims (6)

複数の撮影機会において三次元空間を複数の撮影位置でそれぞれ撮影した全方位画像を、前記撮影位置を示す座標と関連付けて記憶した記憶装置に対し、接続可能な画像情報生成装置であって、
前記複数の撮影機会のうち、第1の撮影機会および第2の撮影機会にそれぞれ撮影された前記三次元空間における第1の全方位画像と第2の全方位画像との比較を要求する情報が入力された場合に、前記記憶装置に記憶された前記全方位画像のうち、前記第2の撮影機会に撮影されたすべての前記第2の全方位画像の中から、その撮影位置座標が前記第1の全方位画像の撮影位置座標に対し最も近い第2の全方位画像を選択する選択部と、
選択された前記第2の全方位画像の表示範囲および表示向きを、前記第1の全方位画像の表示範囲および撮影方向に対応するように調整する調整部と、
前記表示範囲および表示向きが調整された前記第2の全方位画像と前記第1の全方位画像とを比較可能に配置した合成画像を生成し出力する画像生成部と
を具備し、
前記選択部は、前記第2の撮影機会に撮影されたすべての前記第2の全方位画像の中から選択された前記第2の全方位画像の撮影位置座標が、前記第1の全方位画像の撮影位置座標から予め設定された距離以上離れている場合に、選択された前記第2の全方位画像を前記合成画像の生成対象から除外する
画像情報生成装置。
An image information generating device connectable to a storage device that stores omnidirectional images obtained by photographing a three-dimensional space at a plurality of photographing positions on a plurality of photographing occasions in association with coordinates indicating the photographing positions, the image information generating device comprising:
a selection unit that, when information requesting a comparison between a first omnidirectional image and a second omnidirectional image in the three-dimensional space captured at a first photographing opportunity and a second photographing opportunity among the plurality of photographing opportunities is input, selects, from among all the second omnidirectional images captured at the second photographing opportunity among the omnidirectional images stored in the storage device, a second omnidirectional image whose photographing position coordinates are closest to those of the first omnidirectional image;
an adjustment unit that adjusts a display range and a display orientation of the selected second omnidirectional image so as to correspond to a display range and an imaging direction of the first omnidirectional image;
an image generating unit that generates and outputs a composite image in which the second omnidirectional image and the first omnidirectional image whose display range and display orientation have been adjusted are arranged so as to be comparable ;
The selection unit excludes the selected second omnidirectional image from targets for generating the composite image when the shooting position coordinates of the second omnidirectional image selected from all the second omnidirectional images captured at the second shooting opportunity are away from the shooting position coordinates of the first omnidirectional image by a preset distance or more.
Image information generating device.
前記選択部は、第1の日時および第2の日時にそれぞれ撮影された前記三次元空間における前記第1の全方位画像と前記第2の全方位画像との比較を要求する情報が入力された場合に、前記記憶装置に記憶された前記全方位画像のうち、前記第2の日時に撮影されたすべての前記第2の全方位画像の中から、その撮影位置座標が前記第1の全方位画像の撮影位置座標に対し最も近い第2の全方位画像を選択する、請求項1に記載の画像情報生成装置。 The image information generating device according to claim 1, wherein, when information is input requesting a comparison between the first omnidirectional image and the second omnidirectional image in the three-dimensional space taken at a first date and time and a second date and time, respectively, the selection unit selects, from among all the second omnidirectional images taken at the second date and time among the omnidirectional images stored in the storage device, a second omnidirectional image whose shooting position coordinates are closest to the shooting position coordinates of the first omnidirectional image. 前記画像生成部は、前記選択された前記第2の全方位画像が前記合成画像の生成対象から除外された場合に、比較対象の前記第2の全方位画像が存在しない旨のメッセージを生成し出力する、請求項1に記載の画像情報生成装置。 2. The image information generating device according to claim 1, wherein the image generating unit generates and outputs a message indicating that the second omnidirectional image to be compared does not exist when the selected second omnidirectional image is excluded from the generation of the composite image. 前記画像生成部は、前記第1の全方位画像と前記第2の全方位画像とを比較可能に配置した前記合成画像に、前記三次元空間の平面図に前記第1の全方位画像と前記第2の全方位画像のうちの少なくとも一方の撮影位置座標をプロットした画像をさらに重ねた画像を生成する、請求項1に記載の画像情報生成装置。 The image information generating device according to claim 1, wherein the image generating unit generates an image by further superimposing an image in which the coordinates of the shooting position of at least one of the first omnidirectional image and the second omnidirectional image are plotted on a plan view of the three-dimensional space on the composite image in which the first omnidirectional image and the second omnidirectional image are arranged so as to be comparable. 複数の撮影機会において三次元空間を複数の撮影位置でそれぞれ撮影した全方位画像を、前記撮影位置を示す座標と関連付けて記憶した記憶装置に対し、接続可能な装置が実行する画像情報生成方法であって、
前記複数の撮影機会のうち、第1の撮影機会および第2の撮影機会にそれぞれ撮影された前記三次元空間における第1の全方位画像と第2の全方位画像との比較を要求する情報が入力された場合に、前記記憶装置に記憶された前記全方位画像のうち、前記第2の撮影機会に撮影されたすべての前記第2の全方位画像の中から、その撮影位置座標が前記第1の全方位画像の撮影位置座標に対し最も近い第2の全方位画像を選択する選択過程と、
選択された前記第2の全方位画像の表示範囲および表示向きを、前記第1の全方位画像の表示範囲および撮影方向に対応するように調整する調整過程と、
前記表示範囲および表示向きが調整された前記第2の全方位画像と前記第1の全方位画像とを比較可能に配置した合成画像を生成し出力する画像生成過程と
を具備し、
前記選択過程は、前記第2の撮影機会に撮影されたすべての前記第2の全方位画像の中から選択された前記第2の全方位画像の撮影位置座標が、前記第1の全方位画像の撮影位置座標から予め設定された距離以上離れている場合に、選択された前記第2の全方位画像を前記合成画像の生成対象から除外する
する画像情報生成方法。
1. An image information generating method executed by a device connectable to a storage device that stores omnidirectional images obtained by photographing a three-dimensional space at a plurality of photographing positions on a plurality of photographing occasions in association with coordinates indicating the photographing positions, the method comprising:
a selection process for selecting, when information is input requesting a comparison between a first omnidirectional image and a second omnidirectional image in the three-dimensional space captured at a first photographing opportunity and a second photographing opportunity among the plurality of photographing opportunities, from among all the second omnidirectional images captured at the second photographing opportunity among the omnidirectional images stored in the storage device, a second omnidirectional image whose photographing position coordinates are closest to the photographing position coordinates of the first omnidirectional image ;
an adjustment process of adjusting a display range and a display orientation of the selected second omnidirectional image so as to correspond to a display range and a shooting direction of the first omnidirectional image;
an image generating step of generating and outputting a composite image in which the second omnidirectional image and the first omnidirectional image, the display range and the display orientation of which have been adjusted, are arranged so as to be comparable to each other ;
The selection step includes excluding the selected second omnidirectional image from the generation target of the composite image when the shooting position coordinates of the second omnidirectional image selected from all the second omnidirectional images captured at the second shooting opportunity are apart from the shooting position coordinates of the first omnidirectional image by a preset distance or more.
A method for generating image information.
請求項1乃至4のいずれかに記載の画像情報生成装置が具備する前記選択部、調整部および画像生成部の処理を、前記画像情報生成装置が備えるプロセッサに実行させるプログラム。 5. A program for causing a processor included in the image information generating device to execute the processes of the selection unit, the adjustment unit, and the image generating unit included in the image information generating device according to claim 1 .
JP2020114270A 2020-07-01 2020-07-01 Image information generating device, method, and program Active JP7467262B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020114270A JP7467262B2 (en) 2020-07-01 2020-07-01 Image information generating device, method, and program
PCT/JP2021/018534 WO2022004153A1 (en) 2020-07-01 2021-05-17 Image information generating device, method, and program
KR1020237002290A KR20230033016A (en) 2020-07-01 2021-05-17 Image information generating device, method and program
US18/145,888 US20230131239A1 (en) 2020-07-01 2022-12-23 Image information generating apparatus and method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020114270A JP7467262B2 (en) 2020-07-01 2020-07-01 Image information generating device, method, and program

Publications (2)

Publication Number Publication Date
JP2022012444A JP2022012444A (en) 2022-01-17
JP7467262B2 true JP7467262B2 (en) 2024-04-15

Family

ID=79315870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020114270A Active JP7467262B2 (en) 2020-07-01 2020-07-01 Image information generating device, method, and program

Country Status (4)

Country Link
US (1) US20230131239A1 (en)
JP (1) JP7467262B2 (en)
KR (1) KR20230033016A (en)
WO (1) WO2022004153A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162613A1 (en) * 2022-02-25 2023-08-31 パナソニックIpマネジメント株式会社 Image management system, image management method, and program
WO2023224033A1 (en) * 2022-05-17 2023-11-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device, and information processing program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018082298A (en) 2016-11-16 2018-05-24 株式会社リコー Image display system, communication system, image display method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017119244A1 (en) 2016-01-05 2017-07-13 富士フイルム株式会社 Treatment liquid, method for cleaning substrate and method for manufacturing semiconductor device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018082298A (en) 2016-11-16 2018-05-24 株式会社リコー Image display system, communication system, image display method and program

Also Published As

Publication number Publication date
JP2022012444A (en) 2022-01-17
US20230131239A1 (en) 2023-04-27
WO2022004153A1 (en) 2022-01-06
KR20230033016A (en) 2023-03-07

Similar Documents

Publication Publication Date Title
US10007798B2 (en) Method for managing privacy of digital images
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
US20110292231A1 (en) System for managing privacy of digital images
US20230131239A1 (en) Image information generating apparatus and method, and computer-readable storage medium
WO2018157464A1 (en) Image display method and electronic device
JP5037061B2 (en) Image output apparatus, image list display system, program, recording medium, and image output method
JP6721004B2 (en) Image management system and image management method
US20230308762A1 (en) Display terminal, information processing system, communication system, displaying method, information processing method, communication method, and recording medium
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2017108356A (en) Image management system, image management method and program
JP2004193690A (en) Site management system and management apparatus for site management system
JP7439398B2 (en) Information processing equipment, programs and information processing systems
JP5664285B2 (en) Information processing apparatus and camera
US20230128950A1 (en) Photography position management device and method, and computer-readable storage medium
WO2022004154A1 (en) Imaging assistance device, method, and program
US20230269481A1 (en) Information processing system, communication system, and image transmission method
WO2022004156A1 (en) Information setting control device, method, and program
US20230308622A1 (en) Display terminal, displaying method, and recording medium
US20230308764A1 (en) Display terminal, communication system, method for displaying, method for communicating, and recording medium
US20230368399A1 (en) Display terminal, communication system, and non-transitory recording medium
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
JP2008028688A (en) Image distribution system
JP2017182548A (en) Image management system, image management method, image communication system, and program
JP5979205B2 (en) Information processing apparatus and camera

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220131

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403