JP7373294B2 - Image processing device, image providing server, image display method, and image providing method - Google Patents

Image processing device, image providing server, image display method, and image providing method Download PDF

Info

Publication number
JP7373294B2
JP7373294B2 JP2019076502A JP2019076502A JP7373294B2 JP 7373294 B2 JP7373294 B2 JP 7373294B2 JP 2019076502 A JP2019076502 A JP 2019076502A JP 2019076502 A JP2019076502 A JP 2019076502A JP 7373294 B2 JP7373294 B2 JP 7373294B2
Authority
JP
Japan
Prior art keywords
image
situation
displayed
processing device
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019076502A
Other languages
Japanese (ja)
Other versions
JP2020173718A (en
Inventor
准一 村本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2019076502A priority Critical patent/JP7373294B2/en
Publication of JP2020173718A publication Critical patent/JP2020173718A/en
Priority to JP2023181869A priority patent/JP7507946B2/en
Application granted granted Critical
Publication of JP7373294B2 publication Critical patent/JP7373294B2/en
Priority to JP2024097994A priority patent/JP2024117801A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ディスプレイに画像を表示させる画像処理装置、画像データを提供する画像提供サーバ、および画像表示方法、画像提供方法に関する。 The present invention relates to an image processing device that displays an image on a display, an image providing server that provides image data, an image display method, and an image providing method.

ネットワークや情報処理装置の進歩により、時間や場所を問わず必要な情報にアクセスすることが容易になっている。例えば地図のアプリケーションによれば、地図上で指定した位置にある施設の情報や、その場所の撮影画像などをすぐに閲覧でき、地図が本来有する位置情報と関連付けた把握が可能となる。また全天周(360°)の撮影画像を用いて任意の方向の画像を表示させたり、進行方向の視点から撮影された画像へ順次表示を切り替えたりすることにより、画像世界の周囲を見回したりその中を歩いたりしているような臨場感を与えることもできる。 Advances in networks and information processing devices have made it easier to access necessary information regardless of time or place. For example, with a map application, it is possible to immediately view information on facilities located at a specified location on the map, captured images of that location, etc., and it is possible to understand the information in relation to the location information inherent in the map. You can also view the surroundings of the image world by displaying images from any direction using images shot all around the sky (360°), or by sequentially switching the display to images taken from the viewpoint in the direction of travel. It can also give a sense of realism as if you are walking inside it.

上述のような環境を安定的に提供するには、場所によらずできるだけ多くの撮影画像を準備することが望ましい。そのため広く一般に画像のデータを募ったり、個々のユーザが地図上の位置と対応づけることを許容したりして、ユーザ同士がネットワークを介して画像を共有する方策がとられることもある。しかしながら画像の数が増えるほど、同じ場所でも様子が全く異なる画像が同列に扱われ、見る者を混乱させたり、所望の画像へたどり着くまでに多大な労力を要したりする可能性が高くなる。上述した全天周画像の視点を移動させる技術のように、表示画像を順次切り替えていく場合は特に、切り替え前後で画像の様子が異なることにより、臨場感が損なわれたり同じ場所と認識できなかったりすることもある。 In order to stably provide the above-mentioned environment, it is desirable to prepare as many captured images as possible regardless of the location. For this reason, measures are sometimes taken to allow users to share images via a network by soliciting image data from the general public or allowing individual users to associate images with locations on a map. However, as the number of images increases, it becomes more likely that images of the same place but with completely different appearances will be treated in the same way, which will confuse the viewer and require a great deal of effort to arrive at the desired image. Especially when the displayed images are changed sequentially, such as in the technique of moving the viewpoint of the all-sky image described above, the appearance of the images differs before and after the change, which impairs the sense of reality or makes it impossible to recognize the same place. Sometimes it happens.

本発明はこうした課題に鑑みてなされたものであり、その目的は、場所に対応する画像を好適かつ効率的に表示させることのできる技術を提供することにある。 The present invention has been made in view of these problems, and its purpose is to provide a technique that can suitably and efficiently display images corresponding to a location.

本発明のある態様は画像処理装置に関する。この画像処理装置は、表示装置に表示させる画像に係るユーザ操作を受け付ける入力情報取得部と、ユーザ操作に応じて、同じ場所を異なる状況で撮影した複数の画像のうちのいずれかを表示装置に表示させる画像表示部と、を備え、画像表示部は、表示中の画像と同じ場所の撮影状況を選択するための状況選択用アイコンをさらに表示させ、入力情報部が、当該状況選択用アイコンへの操作を受け付けたとき、選択された状況で撮影された画像を表示装置に表示させることを特徴とする。 One aspect of the present invention relates to an image processing device. This image processing device includes an input information acquisition unit that accepts a user operation related to an image to be displayed on a display device, and a display device that displays one of a plurality of images taken at the same place under different conditions in accordance with the user operation. an image display section to display the image, the image display section further displays a situation selection icon for selecting a shooting situation in the same place as the image being displayed, and the input information section further displays a situation selection icon for selecting the situation selection icon. The present invention is characterized in that when an operation is received, an image taken in the selected situation is displayed on the display device.

本発明の別の態様は画像提供サーバに関する。この画像提供サーバは、ユーザが操作する画像処理装置と通信を確立し、当該画像処理装置においてユーザが指定した場所の画像のデータを画像処理装置に送信するサーバであって、同じ場所を異なる状況で撮影した複数の画像と、それぞれの撮影状況とを対応づけたデータベースと、画像処理装置における、撮影状況を選択するユーザ操作に応じて、該当する画像のデータをデータベースより読み出して画像処理装置に送信するデータ送信部と、を備えたことを特徴とする。 Another aspect of the present invention relates to an image providing server. This image providing server is a server that establishes communication with an image processing device operated by a user, and sends image data of a location specified by the user on the image processing device to the image processing device. A database that associates a plurality of images taken with each shooting situation, and an image processing device that reads the data of the corresponding image from the database and sends it to the image processing device in response to a user operation to select a shooting situation. The present invention is characterized by comprising a data transmitter for transmitting data.

本発明のさらに別の態様は画像表示方法に関する。この画像表示方法は画像処理装置が、表示装置に表示させる画像に係るユーザ操作を受け付けるステップと、ユーザ操作に応じて、同じ場所を異なる状況で撮影した複数の画像のうちのいずれかを表示装置に表示させるステップと、表示中の画像と同じ場所の撮影状況を選択するための状況選択用アイコンを表示させるステップと、当該状況選択用アイコンへの操作を受け付け、選択された状況で撮影された画像を表示装置に表示させるステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to an image display method. This image display method includes a step in which the image processing device receives a user operation related to an image to be displayed on a display device, and a step in which the image processing device selects one of a plurality of images taken of the same place under different conditions to the display device in accordance with the user operation. a step of displaying a situation selection icon for selecting a shooting situation for the same location as the image being displayed; The method is characterized by including the step of displaying the image on a display device.

本発明のさらに別の態様は画像提供方法に関する。この画像提供方法は画像提供サーバが、ユーザが操作する画像処理装置と通信を確立し、当該画像処理装置においてユーザが指定した場所の画像のデータを画像処理装置に送信するステップと、同じ場所を異なる状況で撮影した複数の画像と、それぞれの撮影状況とを対応づけたデータベースから、画像処理装置における、撮影状況を選択するユーザ操作に応じて、該当する画像のデータを読み出して画像処理装置に送信するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to an image providing method. This image providing method includes a step in which an image providing server establishes communication with an image processing device operated by a user, and transmits data of an image at a location specified by the user on the image processing device to the image processing device; From a database that associates multiple images taken in different situations with each shooting situation, the data of the corresponding image is read out and sent to the image processing device in response to the user's operation to select the shooting situation on the image processing device. It is characterized by including the step of transmitting.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 Note that any combination of the above components and the expression of the present invention converted between methods, devices, systems, computer programs, recording media on which computer programs are recorded, etc. are also effective as aspects of the present invention. .

本発明によると、場所に対応する画像を好適かつ効率的に表示させることができる。 According to the present invention, an image corresponding to a location can be suitably and efficiently displayed.

実施の形態1を適用できる画像表示システムの構成例を示す図である。1 is a diagram showing a configuration example of an image display system to which Embodiment 1 can be applied; FIG. 実施の形態1における画像処理装置の内部回路構成を示す図である。1 is a diagram showing an internal circuit configuration of an image processing device in Embodiment 1. FIG. 実施の形態1における画像処理装置および画像提供サーバの機能ブロックの構成を示す図である。2 is a diagram showing the configuration of functional blocks of an image processing device and an image providing server in Embodiment 1. FIG. 実施の形態1において画像データベースを構築する際の、画像提供サーバの機能ブロックの構成の例を示す図である。3 is a diagram showing an example of the configuration of functional blocks of an image providing server when constructing an image database in the first embodiment. FIG. 実施の形態1で表示装置に表示される画面の例を示す図である。3 is a diagram showing an example of a screen displayed on a display device in the first embodiment. FIG. 実施の形態1において撮影状況の選択を受け付ける際の画面の例を示す図である。5 is a diagram illustrating an example of a screen when accepting a selection of a shooting situation in the first embodiment. FIG. 実施の形態1において、画像データベースに格納するデータベースの構造を例示する図である。3 is a diagram illustrating the structure of a database stored in an image database in the first embodiment; FIG. 実施の形態1で用いる撮影状況の分類情報の構造を例示するす図である。FIG. 3 is a diagram illustrating the structure of classification information of photographing situations used in the first embodiment. 実施の形態1において、画像処理装置が画像提供サーバとの連携により、場所に対応する撮影画像を表示する処理手順を示すフローチャートである。7 is a flowchart illustrating a processing procedure in which the image processing device displays a captured image corresponding to a location in cooperation with an image providing server in the first embodiment. 実施の形態2において画像データベースに格納するデータの構造を例示する図である。7 is a diagram illustrating the structure of data stored in an image database in Embodiment 2. FIG. 図10の画像データ情報における画像データ欄に、さらに階層での位置を対応づける場合に、画像データベースに格納するデータを説明するための図である。11 is a diagram for explaining data to be stored in an image database when the image data column in the image data information of FIG. 10 is further associated with a position in a hierarchy. FIG. 実施の形態2で表示装置に表示される画像の例を示す図である7 is a diagram illustrating an example of an image displayed on a display device in Embodiment 2. FIG. 本実施の形態において階数を選択する操作を受け付けるための別の態様を示す図である。FIG. 7 is a diagram illustrating another mode for accepting an operation for selecting a floor number in the present embodiment. 実施の形態2において、画像処理装置が画像提供サーバとの連携により、場所に対応する撮影画像を表示する処理手順を示すフローチャートである。7 is a flowchart illustrating a processing procedure in which the image processing device displays a captured image corresponding to a location in cooperation with an image providing server in the second embodiment.

実施の形態1
図1は本実施の形態を適用できる画像表示システムの構成例を示す。画像表示システム1は、ユーザ操作に応じて画像を表示させる画像処理装置10a、10b、および、表示に用いる画像データを提供する画像提供サーバ20を含む。画像処理装置10a、10bにはそれぞれ、ユーザ操作のための入力装置14a、14b、画像を表示する表示装置16a、16bが接続される。画像処理装置10a、10bと画像提供サーバ20は、インターネットなどの広域通信網、あるいはLAN(Local Area Network)などのローカルなネットワークを介して通信を確立する。あるいは画像提供サーバ20から画像処理装置10a、10bへの画像データの提供は、記録媒体を介して行われてもよい。
Embodiment 1
FIG. 1 shows a configuration example of an image display system to which this embodiment can be applied. The image display system 1 includes image processing devices 10a and 10b that display images in response to user operations, and an image providing server 20 that provides image data used for display. Input devices 14a and 14b for user operations and display devices 16a and 16b for displaying images are connected to the image processing devices 10a and 10b, respectively. The image processing devices 10a, 10b and the image providing server 20 establish communication via a wide area communication network such as the Internet or a local network such as a LAN (Local Area Network). Alternatively, image data may be provided from the image providing server 20 to the image processing devices 10a, 10b via a recording medium.

画像処理装置10a、10bと、表示装置16a、16bおよび入力装置14a、14bは、有線または無線のどちらで接続されてもよい。あるいはそれらの装置の2つ以上が一体的に形成されていてもよい。例えば図示する例で画像処理装置10bは、表示装置16bの画面を覆うタッチパッドを入力装置14bとして、それらと一体的に携帯端末を構成している。また表示装置16aは、平板型ディスプレイに限らず、ヘッドマウントディスプレイなどのウェアラブルディスプレイやプロジェクタなどでもよい。 The image processing devices 10a, 10b, the display devices 16a, 16b, and the input devices 14a, 14b may be connected by wire or wirelessly. Alternatively, two or more of these devices may be integrally formed. For example, in the illustrated example, the image processing device 10b uses a touch pad that covers the screen of the display device 16b as an input device 14b, and integrally constitutes a mobile terminal. Furthermore, the display device 16a is not limited to a flat display, but may be a wearable display such as a head-mounted display, a projector, or the like.

このように、図示する装置の外観形状や接続形態は限定されない。画像提供サーバ20に接続する画像処理装置10a、10bの数も限定されない。以後、画像処理装置10a、10bを画像処理装置10、入力装置14a、14bを入力装置14、表示装置16a、16bを表示装置16と総称する。 In this way, the external shape and connection form of the illustrated device are not limited. The number of image processing devices 10a and 10b connected to the image providing server 20 is also not limited. Hereinafter, the image processing devices 10a and 10b will be collectively referred to as the image processing device 10, the input devices 14a and 14b as the input device 14, and the display devices 16a and 16b as the display device 16.

画像処理装置10は、入力装置14へのユーザ操作に対応する画像を表示装置16に表示させる。具体的には少なくとも、様々な場所で撮影された画像のうち、ユーザが指定した場所の撮影画像を表示する。ここで表示目的は特に限定されず、画像処理装置10はその目的を達成するため、電子ゲームを進捗させたりブラウザによりインターネットサイトの画像を表示させたりする一般的な処理を並行して実施してよい。本実施の形態では場所の指定手段として親和性の高い、電子地図のアプリケーションを例に説明する。 The image processing device 10 causes the display device 16 to display an image corresponding to a user's operation on the input device 14 . Specifically, at least an image taken at a location designated by the user among images taken at various locations is displayed. Here, the display purpose is not particularly limited, and in order to achieve the purpose, the image processing device 10 concurrently performs general processing such as advancing an electronic game and displaying images from an Internet site using a browser. good. In this embodiment, an electronic map application, which is highly compatible as a means of specifying a location, will be explained as an example.

入力装置14は、コントローラ、キーボード、マウス、タッチパッド、ジョイスティックなど一般的な入力装置のいずれかまたは組み合わせでよく、本実施の形態では特に、場所の指定や視点の移動、視線の転換のほか、画像の撮影状況の選択をユーザより受け付ける。表示装置16は、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなど一般的なディスプレイでよく、画像処理装置10から出力される画像を表示する。上述のとおり表示装置16はヘッドマウントディスプレイやプロジェクタでもよい。 The input device 14 may be any one or a combination of general input devices such as a controller, keyboard, mouse, touch pad, joystick, etc. In this embodiment, in addition to specifying a location, moving the viewpoint, changing the line of sight, etc. A selection of image shooting conditions is accepted from the user. The display device 16 may be a general display such as a liquid crystal display, a plasma display, or an organic EL display, and displays the image output from the image processing device 10. As described above, the display device 16 may be a head mounted display or a projector.

画像提供サーバ20は画像処理装置10と通信を確立し、画像処理装置10からの要求に従い撮影画像のデータを送信する。このため画像提供サーバ20は、撮影画像のデータに、撮影場所および撮影状況を対応づけたデータベースを保持する。そして画像処理装置10から撮影場所や撮影状況の指定を受け付け、合致する画像のデータを送信する。ここで「撮影状況」とは、例えば撮影した日時、時間帯、曜日、月、季節、年、年代などの時間的な状況や、撮影時に行われていたイベント名、イベントの分類、写っている人の多さ、天気などの被写体の状況が考えられる。ただし場所の様子や印象を変化させる要因であれば具体的な項目は特に限定されない。 The image providing server 20 establishes communication with the image processing device 10 and transmits data of captured images in accordance with a request from the image processing device 10. For this reason, the image providing server 20 maintains a database in which data of photographed images is associated with photographing locations and photographing conditions. Then, the designation of the photographing location and photographing situation is accepted from the image processing device 10, and data of matching images is transmitted. Here, "shooting situation" refers to the temporal situation such as the date and time of the photo, time of day, day of the week, month, season, year, and year, the name of the event that was taking place at the time of the photo, the classification of the event, and the information in the photo. Possible factors include the situation of the subject, such as the number of people and the weather. However, the specific items are not particularly limited as long as they are factors that change the appearance or impression of a place.

図2は画像処理装置10の内部回路構成を示している。画像処理装置10は、CPU(Central Processing Unit)23、GPU(Graphics Processing Unit)24、メインメモリ26を含む。これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなり、画像提供サーバ20と通信を確立する通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16へデータを出力する出力部36、入力装置14からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。 FIG. 2 shows the internal circuit configuration of the image processing device 10. The image processing device 10 includes a CPU (Central Processing Unit) 23, a GPU (Graphics Processing Unit) 24, and a main memory 26. These parts are interconnected via a bus 30. An input/output interface 28 is further connected to the bus 30. The input/output interface 28 includes a peripheral device interface such as a USB or IEEE1394, a wired or wireless LAN network interface, a communication unit 32 that establishes communication with the image providing server 20, and a storage unit such as a hard disk drive or nonvolatile memory. 34, an output section 36 that outputs data to the display device 16, an input section 38 that inputs data from the input device 14, and a recording medium drive section 40 that drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected. .

CPU23は、記憶部34に記憶されているオペレーティングシステムを実行することにより画像処理装置10の全体を制御する。CPU23はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU23からの描画命令に従って描画処理を行い、出力部36に出力する。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。なお画像提供サーバ20の内部回路構成も同様でよい。 The CPU 23 controls the entire image processing apparatus 10 by executing an operating system stored in the storage unit 34. The CPU 23 also executes various programs read from a removable recording medium and loaded into the main memory 26 or downloaded via the communication unit 32. The GPU 24 has the function of a geometry engine and the function of a rendering processor, performs a drawing process according to a drawing command from the CPU 23, and outputs it to the output unit 36. The main memory 26 is composed of a RAM (Random Access Memory) and stores programs and data necessary for processing. Note that the internal circuit configuration of the image providing server 20 may be the same.

図3は、画像処理装置10および画像提供サーバ20の機能ブロックの構成を示している。同図および後述する図4に示す各機能ブロックは、ハードウェア的には、図2で示した各種回路によりで実現でき、ソフトウェア的には、記録媒体からメインメモリにロードした、画像解析機能、情報処理機能、画像描画機能、データ入出力機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 3 shows the configuration of functional blocks of the image processing device 10 and the image providing server 20. Each functional block shown in the figure and FIG. 4, which will be described later, can be realized in terms of hardware by the various circuits shown in FIG. It is realized by a program that performs various functions such as information processing functions, image drawing functions, and data input/output functions. Therefore, those skilled in the art will understand that these functional blocks can be implemented in various ways using only hardware, only software, or a combination thereof, and are not limited to either.

画像処理装置10は、ユーザ操作に係る情報を取得する入力情報取得部50、ユーザ操作に応じたデータを画像提供サーバ20に要求するデータ要求部52、画像提供サーバ20から送信されたデータを取得するデータ取得部54、および表示画像を生成し表示装置16に表示させる画像表示部56を含む。入力情報取得部50は図2の入力部38、CPU23などで実現され、ユーザ操作に係る情報を入力装置14から取得する。具体的には上述のとおり、画像の撮影場所や撮影状況の指定のほか、表示処理の開始や終了、全天周画像に対する視線の転換、視点の移動などの操作内容を取得する。地図のアプリケーションに関連付ける場合、入力情報取得部50は地図表示に係る各種操作の内容も取得する。 The image processing device 10 includes an input information acquisition unit 50 that acquires information related to user operations, a data request unit 52 that requests the image providing server 20 for data corresponding to user operations, and acquires data transmitted from the image providing server 20. and an image display section 56 that generates a display image and displays it on the display device 16. The input information acquisition unit 50 is realized by the input unit 38, the CPU 23, etc. in FIG. 2, and acquires information related to user operations from the input device 14. Specifically, as described above, in addition to specifying the location and situation where the image was taken, operation details such as starting and ending display processing, changing the line of sight with respect to the all-sky image, and moving the viewpoint are obtained. When associating with a map application, the input information acquisition unit 50 also acquires the contents of various operations related to map display.

データ要求部52は、図2のCPU23、通信部32などで実現され、ユーザ操作に対応する画像のデータを画像提供サーバ20に要求する。データ取得部54は、図2のCPU23、通信部32、メインメモリ26などで実現され、画像提供サーバ20から、要求に応じて送信された画像のデータを取得する。なおデータ取得部54は、記録媒体駆動部40を含み、記録媒体から画像のデータを読み出してもよい。データ取得部70はまた、指定された場所に対しどのような撮影状況の画像を選択できるかを示す選択肢の情報も画像提供サーバ20から取得してよい。データ取得部70は必要に応じて、取得した画像のデータを復号伸張する。 The data requesting unit 52 is realized by the CPU 23, the communication unit 32, etc. in FIG. 2, and requests the image providing server 20 for image data corresponding to user operations. The data acquisition unit 54 is realized by the CPU 23, communication unit 32, main memory 26, etc. in FIG. 2, and acquires image data transmitted from the image providing server 20 in response to a request. Note that the data acquisition section 54 may include the recording medium drive section 40 and read image data from the recording medium. The data acquisition unit 70 may also acquire from the image providing server 20 option information indicating what kind of shooting situation images can be selected for the designated location. The data acquisition unit 70 decodes and expands the acquired image data as necessary.

画像表示部56は図2のCPU23、GPU24、メインメモリ26などで実現され、データ取得部54が取得した画像を含む表示画像を生成し、表示装置16に出力する。詳細には画像表示部56は、アイコン表示部64、画像切り替え部66、視点変化処理部68を含む。アイコン表示部64は少なくとも、表示させる画像の撮影状況を選択するための状況選択用アイコンを表示する。状況選択用アイコンを表示中の画像上に重畳表示させることにより、画像を表示している状態のまま別の撮影状況の画像へ表示を切り替えることができる。なお指定された場所に対し準備されている画像によって、選択できる撮影状況は様々となるため、アイコン表示部64は上述のとおり画像提供サーバ20より送信された選択肢の情報に基づき状況選択用アイコンの構成を決定する。 The image display unit 56 is realized by the CPU 23, GPU 24, main memory 26, etc. in FIG. 2, and generates a display image including the image acquired by the data acquisition unit 54, and outputs it to the display device 16. In detail, the image display section 56 includes an icon display section 64, an image switching section 66, and a viewpoint change processing section 68. The icon display section 64 displays at least a situation selection icon for selecting the shooting situation of the image to be displayed. By superimposing the situation selection icon on the currently displayed image, it is possible to switch the display to an image in a different shooting situation while the image is being displayed. Note that the shooting situations that can be selected vary depending on the images prepared for the specified location, so the icon display section 64 displays the situation selection icons based on the information on the options sent from the image providing server 20 as described above. Decide on the configuration.

アイコン表示部64はこのほか、全天周画像表示において視点を移動させる移動用アイコンを、必要に応じて表示中の画像に重畳表示する。画像切り替え部66は少なくとも、状況選択用アイコンに対する操作により選択された撮影状況の画像へ、表示対象を切り替える。画像切り替え部66はこのほか、サムネイル画像の表示、表示させたサムネイル画像のうち選択された画像の拡大表示、検索された場所の地図や情報の表示などを適宜実施する。視点変化処理部68は、全天周画像表示において、移動用アイコンに対する操作に応じ、画像世界で対応する方向に視点が進むように表示画像を切り替えたり、画面上の上下左右斜めの方向指定操作に応じ、対応する方向が見えるように表示対象の視野を変化させたりする。 In addition, the icon display section 64 displays a moving icon for moving the viewpoint in the all-sky image display, superimposed on the image being displayed as necessary. The image switching unit 66 switches the display target to at least the image of the shooting situation selected by operating the situation selection icon. In addition, the image switching unit 66 appropriately displays thumbnail images, enlarges a selected image among the displayed thumbnail images, and displays a map or information of the searched location. In the all-sky image display, the viewpoint change processing unit 68 switches the displayed image so that the viewpoint advances in the corresponding direction in the image world according to the operation on the movement icon, or performs an operation to specify the up, down, left, right, and diagonal directions on the screen. Depending on the situation, the field of view of the display object is changed so that the corresponding direction can be seen.

視点変化処理部68が実施する、視点や視線の変化に対する表示の制御自体には、一般的な技術を利用できる。ただし本実施の形態では、視点の移動操作により画像を切り替える際、切り替え前と同じ撮影状況の画像を優先的に選択して表示する。あるいはユーザがその場で、撮影状況を選択できるようにする。なお表示対象が全天周画像でない場合、視点変化処理部68の機能を省くことができる。 General techniques can be used to control the display in response to changes in viewpoint or line of sight, which is performed by the viewpoint change processing unit 68. However, in this embodiment, when switching images by moving the viewpoint, images with the same shooting situation as before switching are preferentially selected and displayed. Alternatively, the user can select the shooting situation on the spot. Note that when the display target is not an all-sky image, the function of the viewpoint change processing section 68 can be omitted.

画像提供サーバ20は、画像処理装置10からの画像データの要求を取得する要求取得部58、要求に対応する画像のデータを画像処理装置10に送信するデータ送信部62、および、画像のデータを撮影場所や撮影状況と対応づけて記憶する画像データベース60を含む。要求取得部58は図2の通信部32、CPU23などで実現され、場所や撮影状況を指定した画像のデータ要求を画像処理装置10から取得する。 The image providing server 20 includes a request acquisition unit 58 that acquires a request for image data from the image processing device 10, a data transmission unit 62 that transmits image data corresponding to the request to the image processing device 10, and a data transmission unit 62 that transmits image data corresponding to the request to the image processing device 10. It includes an image database 60 that is stored in association with shooting locations and shooting conditions. The request acquisition unit 58 is realized by the communication unit 32, the CPU 23, etc. in FIG. 2, and acquires a data request for an image specifying a location and a shooting situation from the image processing device 10.

データ送信部62はCPU23、通信部32などで実現され、要求に対応する画像のデータや選択肢の情報を画像データベース60から抽出し、画像処理装置10に送信する。なお地図のアプリケーションを実現する場合、画像処理装置10からの要求対象や、画像提供サーバ20からの送信対象として、地図の画像や施設の情報など、地図のアプリケーションとして一般的に提供されるデータを含んでよい。この場合、それらのデータベースを別途準備するが、図3では図示を省略している。 The data transmitting unit 62 is realized by the CPU 23, the communication unit 32, etc., and extracts image data and option information corresponding to the request from the image database 60, and transmits it to the image processing device 10. Note that when implementing a map application, data that is generally provided as a map application, such as map images and facility information, may be requested from the image processing device 10 or transmitted from the image providing server 20. may be included. In this case, those databases are prepared separately, but are not shown in FIG. 3.

画像データベース60は図2の記憶部34で実現され、様々な場所で撮影された画像のデータを、撮影場所および撮影状況と対応づけて記憶する。撮影状況としては上述のとおり時間的な状況と、被写体の状況が考えられる。前者を選択するための選択肢として、1日のうち撮影された時間帯、撮影された月や季節、撮影された年代など、様々な粒度の時間範囲を準備する。後者を選択するための選択肢として、開催されていたイベント、人数、天気などに対し、これも様々な粒度の分類や数の範囲を準備する。 The image database 60 is realized by the storage unit 34 in FIG. 2, and stores data of images shot at various locations in association with the shooting location and shooting situation. As described above, the shooting situation may include the temporal situation and the subject situation. As options for selecting the former, time ranges of various granularity are prepared, such as the time of day when the image was taken, the month and season when the image was taken, and the year when the image was taken. As an option for selecting the latter, various granularity classifications and number ranges are prepared for the event being held, the number of people, the weather, etc.

図4は、画像データベース60を構築する際の、画像提供サーバ20の機能ブロックの構成の例を示している。図示する画像提供サーバ20aが有する機能ブロックは、図3の画像提供サーバ20に含まれていてもよいし、異なる装置としてもよい。画像提供サーバ20aは、撮影画像のデータを外部の装置から取得するデータ取得部70、撮影場所や撮影状況など撮影画像の属性を取得する属性取得部72、図3で示した画像データベース60を含む。 FIG. 4 shows an example of the configuration of functional blocks of the image providing server 20 when constructing the image database 60. The functional blocks included in the illustrated image providing server 20a may be included in the image providing server 20 of FIG. 3, or may be implemented as different devices. The image providing server 20a includes a data acquisition unit 70 that acquires data of a photographed image from an external device, an attribute acquisition unit 72 that acquires attributes of the photographed image such as a shooting location and a shooting situation, and an image database 60 shown in FIG. .

データ取得部70は図2のCPU23、通信部32、入力部38などで実現され、画像処理装置10など外部の装置から撮影画像のデータを取得する。例えば画像処理装置10で実行されている地図のアプリケーションに対し、一般ユーザが地図上の場所を指定したうえ、そこで自分が撮影した画像のデータをアップロードできるようにしておく。この場合、データ取得部70は、アップロードされたデータを、指定された場所の情報とともにネットワークを介して取得する。画像のデータの取得先はこのほか、画像提供サーバ20aに直接接続した撮像装置や情報処理装置、あるいはネットワークを介して接続した他の画像提供サーバなどでもよい。 The data acquisition unit 70 is realized by the CPU 23, the communication unit 32, the input unit 38, etc. in FIG. 2, and acquires data of captured images from an external device such as the image processing device 10. For example, a map application running on the image processing device 10 is configured so that a general user can specify a location on the map and then upload data of an image that he or she has photographed there. In this case, the data acquisition unit 70 acquires the uploaded data together with the specified location information via the network. In addition to the above, the image data may be obtained from an imaging device or an information processing device directly connected to the image providing server 20a, or another image providing server connected via a network.

属性取得部72は、画像の撮影場所や撮影状況に係る情報を所定の手段により取得する。デジタルカメラで撮影された画像の場合、撮影日時や撮影時の位置情報などがExif(Exchangeable Image File Format)などの付加情報として記録される。したがって属性取得部72は、データ取得部70が取得した画像のデータから付加情報を読み出し、必要な情報を取得する。あるいは画像提供元のユーザが、画像処理装置10において入力した、属性に係る情報を取得してもよい。または属性取得部72は、撮影画像を一般的な手法で解析することにより、写っている人の数や天気などの情報を取得してもよい。それらの情報を、画像提供サーバ20aを操作するユーザが直接確認し、入力してもよい。 The attribute acquisition unit 72 acquires information related to the photographing location and photographing situation of the image by a predetermined means. In the case of images shot with a digital camera, the date and time of shooting, location information at the time of shooting, etc. are recorded as additional information such as Exif (Exchangeable Image File Format). Therefore, the attribute acquisition unit 72 reads additional information from the image data acquired by the data acquisition unit 70 and acquires necessary information. Alternatively, information related to attributes input by the user of the image provider into the image processing device 10 may be acquired. Alternatively, the attribute acquisition unit 72 may acquire information such as the number of people in the photograph and the weather by analyzing the photographed image using a general method. The user operating the image providing server 20a may directly check and input the information.

属性取得部72は、そのようにして取得した撮影場所や撮影状況に係る情報と、撮影画像のデータとを対応づけて、画像データベース60に格納する。このような対応づけを、一般ユーザから募ったような統一性のない画像のデータに対し実施してデータベース化しておくことにより、豊富な撮影画像から、閲覧時の状況に対し最適なものを容易に抽出できる。 The attribute acquisition unit 72 associates the thus acquired information regarding the photographing location and the photographing situation with the data of the photographed image and stores it in the image database 60. By performing this kind of correspondence on inconsistent image data collected from general users and creating a database, it is easy to select the most suitable image for the viewing situation from a wide variety of captured images. It can be extracted to

例えばある場所の全天周画像を表示させ、視点を移動させる操作により画像世界における進行方向へ移動しようとした場合、そもそも画像データが十分でなく、該当する視点の撮影画像がなければ、表示の切り替えも不可能となる。一方、当該視点から撮影された画像が豊富にあっても、そのうちの1つが脈絡なく表示されると、わずかな移動であっても表示される画像の様子が大きく変化する可能性が高くなり、違和感や混乱の原因となる。 For example, if you display an all-sky image of a certain place and try to move in the direction of movement in the image world by moving the viewpoint, if there is not enough image data to begin with and there is no image taken from the corresponding viewpoint, the display will not work. Switching is also impossible. On the other hand, even if there are many images taken from that viewpoint, if one of them is displayed out of context, there is a high possibility that the appearance of the displayed image will change significantly even with a slight movement. This may cause discomfort or confusion.

上述のとおり場所以外の属性にも対応づけて画像データベース60を作成し、視点の移動操作に対し同じ撮影状況の画像を抽出すれば、統一感のある画像を表示し続けることができ、その場所の雰囲気や構造を混乱なく鑑賞したり確認したりできる。また、撮影状況をユーザが選択できるようにすることで、ユーザ個々の目的に適した画像を提示し続けられる。なお画像データを記録媒体により提供する場合は、画像データベース60の形式で記録媒体に格納する。 As described above, if the image database 60 is created in association with attributes other than location, and images with the same shooting situation are extracted in response to a viewpoint movement operation, it is possible to continue displaying images with a sense of unity. The atmosphere and structure of the building can be viewed and confirmed without confusion. Furthermore, by allowing the user to select the shooting situation, it is possible to continue presenting images suitable for each user's purpose. Note that when the image data is provided by a recording medium, it is stored in the recording medium in the format of the image database 60.

図5は、本実施の形態で表示装置16に表示される画面の例を示している。なお以後、説明する表示画面の変化は、実際には画像処理装置10の入力情報取得部50がユーザ操作の内容を取得し、データ要求部52が画像提供サーバ20に要求した結果、データ取得部54が対応する画像データを取得する、という処理手順を経てなされるが、適宜記述を省略する。 FIG. 5 shows an example of a screen displayed on the display device 16 in this embodiment. Note that the changes in the display screen that will be described hereinafter are actually caused by the input information acquisition unit 50 of the image processing device 10 acquiring the content of the user operation, and the data requesting unit 52 making a request to the image providing server 20. 54 acquires the corresponding image data, but the description thereof will be omitted as appropriate.

(a)は、地図のアプリケーションにより電子地図を表示させた状態の画面を示している。この例で表示画面は、地図欄80、検索欄82、情報欄84を含む。ユーザが検索欄82に住所や施設名を入力すると、画像表示部56の画像切り替え部66は、地図欄80にその周辺の地図を表示する。施設名が入力された場合、あるいは表示済みの地図に対するカーソル88の操作などにより、ある施設が指示された場合、画像切り替え部66は情報欄84に、当該施設の基本情報やホームページのURLなどの文字情報を表示する。 (a) shows a screen in which an electronic map is displayed using a map application. In this example, the display screen includes a map field 80, a search field 82, and an information field 84. When the user enters an address or facility name in the search field 82, the image switching section 66 of the image display section 56 displays a map of the surrounding area in the map field 80. When a facility name is input or when a certain facility is specified by operating the cursor 88 on a displayed map, the image switching unit 66 displays basic information about the facility, the URL of the homepage, etc. in the information field 84. Display text information.

図示する例では検索欄82に「City Center」なる施設名が入力され、その周辺の地図が地図欄80に、基本情報が情報欄84に表示されている。さらに画像切り替え部66は、当該施設近傍で撮影された画像のサムネイル86a、86bを表示する。サムネイル86a、86bとして表示する画像は、画像データベース60に格納された画像データのうち、当該施設のある場所をキーとして抽出したものである。ユーザが、そのうちのいずれかをカーソル88などで指示すると、(b)の撮影画像表示画面に遷移する。この例で撮影画像表示画面は、画像欄90およびサムネイル欄92を含む。 In the illustrated example, the facility name "City Center" is entered in the search field 82, a map of the surrounding area is displayed in the map field 80, and basic information is displayed in the information field 84. Further, the image switching unit 66 displays thumbnails 86a and 86b of images taken near the facility. The images displayed as thumbnails 86a and 86b are extracted from the image data stored in the image database 60 using the location of the facility as a key. When the user points to one of them with the cursor 88 or the like, the screen changes to the photographed image display screen shown in (b). In this example, the photographed image display screen includes an image field 90 and a thumbnail field 92.

画像切り替え部66は、(a)の地図表示画面でユーザが選択したサムネイル86aの画像を画像欄90に拡大表示し、サムネイル欄92には同じ場所を撮影したその他の撮影画像のサムネイルを表示する。なおここで「同じ場所」とは、同じ店舗や室内のほか、建物、施設、敷地など、範囲の規模は限定されない。サムネイル欄92に表示したサムネイルのいずれかが指示されたら、画像切り替え部66は画像欄90における表示を、当該サムネイルの拡大画像に切り替える。 The image switching unit 66 enlarges and displays the image of the thumbnail 86a selected by the user on the map display screen in FIG. . Note that the "same location" here includes the same store or room, as well as buildings, facilities, and grounds, and is not limited in scale. When one of the thumbnails displayed in the thumbnail field 92 is designated, the image switching section 66 switches the display in the image field 90 to an enlarged image of the thumbnail.

また画像欄90に全天周画像を表示させる場合、画像表示部56のアイコン表示部64は、当該画像に視点移動を実現するための移動用アイコン94を表示させる。カーソルなどにより移動用アイコン94が指示されたら、視点変化処理部68は、アイコンが示す矢印の方向(図では奥の方向)へ視点を移動させ、そこで撮影された全天周画像へ表示を切り替える。また画面上の任意の位置を指示してスライドさせる操作がなされたら、視点変化処理部68は、スライドと連動して像が移動するように、視野を逆方向に移動させる。これにより自由な視点や視線で、指定した場所の様子を見ることができる。なお画面の構成は図5に示したものに限らず、撮影画像を表示させる処理の手順も限定されない。 Further, when displaying an all-sky image in the image column 90, the icon display section 64 of the image display section 56 displays a movement icon 94 for realizing viewpoint movement on the image. When the movement icon 94 is designated by a cursor or the like, the viewpoint change processing unit 68 moves the viewpoint in the direction of the arrow indicated by the icon (towards the back in the figure) and switches the display to the all-sky image taken there. . Further, when an arbitrary position on the screen is designated and a sliding operation is performed, the viewpoint change processing unit 68 moves the field of view in the opposite direction so that the image moves in conjunction with the sliding. This allows you to view the specified location from any viewpoint or line of sight. Note that the configuration of the screen is not limited to that shown in FIG. 5, and the procedure of processing for displaying a photographed image is not limited either.

このように場所を選択し、そこでの撮影画像を表示させる環境においては、画像そのものを鑑賞する目的以外に、施設や位置との関連付けでその場所の様子を把握することが目的となることも多い。しかしながら上述のとおり、その場所を撮影した画像が多いほど、様々な画像を確認できる一方で、所望の画像へのアクセスが困難になりやすい。また移動用アイコン94により視点を移動させる際、移動前後の画像で様子が大きく変化すると、移動した感覚が得られず空間把握が困難になることが考えられる。 In environments where a location is selected and images taken at that location are displayed, the purpose is often not only to appreciate the images themselves, but also to understand the state of the location in relation to facilities and locations. . However, as described above, the more images a certain location has taken, the more various images can be viewed, but the more difficult it becomes to access a desired image. Furthermore, when moving the viewpoint using the movement icon 94, if the appearance of the images before and after the movement changes significantly, the user may not be able to feel the movement and it may be difficult to grasp the space.

そこで上述のとおり、ユーザの目的に適った状況での撮影画像を抽出して表示する。図6は、撮影状況の選択を受け付ける際の画面の例を示している。(a)に示す画像100は、図5の(a)の地図表示画面や(b)の撮影画像表示画面において表示されるサムネイル、あるいは(b)の撮影画像表示画面において表示される拡大画像のいずれとしてもよい。あるいは地図と関わりなくホームページなどに表示させた撮影画像などでもよい。そのような画像100が表示されている状態で、ユーザが画像100に対し所定の操作を行ったら、アイコン表示部64は、撮影状況の選択肢を表した状況選択用アイコン102を、画像100に重畳表示する。 Therefore, as described above, images taken in situations suitable for the user's purpose are extracted and displayed. FIG. 6 shows an example of a screen when accepting selection of a shooting situation. The image 100 shown in FIG. 5(a) is a thumbnail displayed on the map display screen in FIG. 5(a) or the captured image display screen in FIG. Either is fine. Alternatively, it may be a photographed image displayed on a homepage or the like, regardless of the map. When the user performs a predetermined operation on the image 100 while such an image 100 is being displayed, the icon display unit 64 superimposes the situation selection icon 102 representing options of the shooting situation on the image 100. indicate.

一般的な画像表示技術においては、表示されている画像100をカーソルなどで指示することにより、その画像が選択され何らかのアクションが起動されるように設定されていることが多い。例えば図5の例では上述のとおり、サムネイル86aを指示することにより、拡大画像が画像欄90に表示される。あるいは画像欄90に表示された画像に対する指示操作は、視点を移動させたり視線を転換したりすることに用いられる。 In general image display technology, settings are often made such that by pointing at a displayed image 100 with a cursor or the like, that image is selected and some action is activated. For example, in the example of FIG. 5, as described above, by specifying the thumbnail 86a, an enlarged image is displayed in the image column 90. Alternatively, an instruction operation on the image displayed in the image column 90 is used to move the viewpoint or change the line of sight.

そのような一般的な操作と両立させるため、アイコン表示部64は、画像100上の同じ位置と見なせる所定範囲内での指示が、所定のしきい値t1以上の時間、継続したことを条件として、状況選択用アイコン102を指示された位置に表示する。ここで「指示」とは、表示させたカーソルの操作でもよいし、タッチパッドに対する接触操作でもよい。前者の場合、指示の継続時間は、例えばコントローラやマウスなどのボタンの押下時間に対応する。後者の場合、指示の継続時間は、接触の継続時間に対応する。これらの操作は一般に「長押し」と呼ばれる。ただし状況選択用アイコン102を呼び出す操作を長押しに限定する趣旨ではなく、例えば別のGUI(Graphical User Interface)を表示させておき、当該GUIへの操作に応じて状況選択用アイコン102を表示させてもよい。 In order to be compatible with such general operations, the icon display section 64 displays a message on the condition that an instruction within a predetermined range that can be considered as the same position on the image 100 continues for a time equal to or longer than a predetermined threshold value t1. , displays the status selection icon 102 at the designated position. Here, the "instruction" may be an operation of a displayed cursor or a contact operation on a touch pad. In the former case, the duration of the instruction corresponds to, for example, the duration of pressing a button on a controller, mouse, or the like. In the latter case, the duration of the instruction corresponds to the duration of the contact. These operations are generally called "long presses." However, the purpose is not to limit the operation of calling up the situation selection icon 102 to a long press; for example, another GUI (Graphical User Interface) is displayed, and the situation selection icon 102 is displayed in response to an operation on the GUI. It's okay.

図示する状況選択用アイコン102は一例として、日中および夜間(「day」、「night」)と四季(「spring」、「summer」、「autumn」、「winter」)を撮影状況の選択肢とし、それぞれに領域を与えた円形のアイコンとしている。この場合、例えば長押しが判定された時点でその位置を中心に状況選択用アイコン102を表示させ、そのままいずれかの領域へ指示位置がスライドされたら、その到達点を含む領域の選択肢が選択されたと判定する。また、状況選択用アイコン102が表示されても指示位置が移動せず、その状態が所定のしきい値t2以上の時間、継続したら、別の選択肢を表す状況選択用アイコン102を表示させてもよい。 As an example, the illustrated situation selection icon 102 has daytime and nighttime ("day", "night") and four seasons ("spring", "summer", "autumn", "winter") as options for the shooting situation. Each icon is a circular icon with a designated area. In this case, for example, when a long press is determined, the situation selection icon 102 is displayed centering on that position, and if the indicated position is slid to any area, the option in the area that includes the reached point is selected. It is determined that Furthermore, if the indicated position does not move even if the situation selection icon 102 is displayed, and this state continues for a time longer than a predetermined threshold t2, the situation selection icon 102 representing another option may be displayed. good.

別の状況選択用アイコン102を新たに表示させる代わりに、指示の継続時間に応じてアイコンを拡張させ、選択肢を増やすようにしてもよい。例えば状況選択用アイコン102を最初に表示させる際は、そのうち中心領域に配置された選択肢(図示する例では「day」、「night」の選択肢)のみを表示する。当該選択肢を表示しても指示位置が動かないまましきい値t2以上の時間、指示が継続したら、その外側の領域の選択肢(図示する例では「spring」、「summer」、「autumn」、「winter」の選択肢)が出現するようにしてもよい。そしていずれかの撮影状況が選択されたら、画像切り替え部66は、(b)に示すように、選択された撮影状況で同じ場所を撮影した画像へ表示を切り替える。 Instead of newly displaying another situation selection icon 102, the icon may be expanded according to the duration of the instruction to increase the number of options. For example, when the situation selection icon 102 is displayed for the first time, only the options arranged in the center area (in the illustrated example, the options "day" and "night") are displayed. If the instruction continues for a time equal to or longer than the threshold value t2 without moving the instruction position even if the option is displayed, the options in the area outside the option (in the illustrated example, "spring", "summer", "autumn", " ``winter'' option) may also appear. When one of the photographing conditions is selected, the image switching unit 66 switches the display to an image photographed at the same location under the selected photographing condition, as shown in FIG.

例えば夜間に撮影された画像から日中に撮影された画像に切り替わることにより、図示するように被写体である人の数が増えている。なお状況選択用アイコン102で示す撮影状況の選択肢のうち、画像のデータが存在しない選択肢については、他の選択肢と色を異ならせるなどして選択できないことを示す。切り替え後の画像は、切り替え前の画像と同じ位置に表示してもよいし、目的によっては別の位置に表示してもよい。例えば画像100が、図5の(a)の地図表示画面における情報欄84に示したサムネイル86aであった場合、選択された撮影状況の画像を、(b)の撮影画像表示画面における画像欄90に拡大表示してもよい。 For example, by switching from an image taken at night to an image taken during the day, the number of people as subjects increases as shown in the figure. Note that among the shooting situation options shown by the situation selection icon 102, an option for which image data does not exist is shown in a different color from other options to indicate that it cannot be selected. The image after switching may be displayed at the same position as the image before switching, or may be displayed at a different position depending on the purpose. For example, if the image 100 is the thumbnail 86a shown in the information column 84 on the map display screen in FIG. It may be enlarged and displayed.

この場合、ユーザが移動用アイコン94を操作することにより視点を移動させた際、視点変化処理部68が切り替えて表示する移動先の画像を全て、最初に選択された撮影状況のものとしてよい。これにより、移動に対し順次切り替わる画像の撮影状況が統一されるため、上述のように、僅かな移動によって様子が全く異なる画像が表示され混乱を招く事態を回避できる。一方、図6の画像100が画像欄90に拡大表示された画像であっても、状況選択用アイコン102が呼び出された結果、選択された撮影状況の画像へ表示を切り替えれば、同じ場所が異なる状況ではどのようになっているかを容易に確認できる。 In this case, when the user moves the viewpoint by operating the movement icon 94, all the images at the destination that are switched and displayed by the viewpoint change processing unit 68 may be those in the initially selected shooting situation. As a result, the photographing conditions of images that change sequentially in response to movement are unified, so that it is possible to avoid the situation where images with completely different appearances are displayed due to a slight movement, causing confusion, as described above. On the other hand, even if the image 100 in FIG. 6 is an image enlarged and displayed in the image field 90, if the display is switched to an image of the shooting situation selected as a result of calling the situation selection icon 102, the same location will be different. You can easily see what the situation is.

例えば同じ場所が日中と夜間、あるいは季節によってどのように変化するかを確認したり、その場所が昔はどのようであったかを確認したりできる。また参加予定のイベントが、前回はどのような様子であったかを確認できる。画像上に状況選択用アイコン102を表示させると、画像を直接切り替えることができるため、検索画面やサムネイルなど別の画像を一旦表示させることによる手間や気の逸れが生じない。また限られた表示領域でも容易に切り替えたり比較したりできる。 For example, you can see how the same place changes during the day and night, or depending on the season, or see what the place was like in the past. You can also check what the event you are planning to attend looked like last time. Displaying the status selection icon 102 on an image allows the user to directly switch between images, thereby eliminating the hassle and distraction of temporarily displaying another image such as a search screen or thumbnail. In addition, it is possible to easily switch and compare images even in a limited display area.

図7は、画像データベース60に格納するデータベースの構造を例示している。この例で画像データ情報110は、位置欄112、住所欄114、施設ID欄116、画像データ欄118、撮影日時欄120、およびイベント欄122を含む。位置欄112は撮影場所の緯度経度などの位置情報、住所欄114は撮影場所の住所、施設ID欄116は撮影場所にある施設の名前などの識別情報を示す。画像データ欄118には、当該場所や施設で撮影した画像のデータまたはその識別情報を示す。撮影日時欄120は、当該画像が撮影された日時、イベント欄122は撮影時に当該場所で開催されていたイベント名を示す。 FIG. 7 illustrates the structure of a database stored in the image database 60. In this example, the image data information 110 includes a location field 112, an address field 114, a facility ID field 116, an image data field 118, a photographing date and time field 120, and an event field 122. The location column 112 shows location information such as the latitude and longitude of the shooting location, the address column 114 shows the address of the shooting location, and the facility ID column 116 shows identification information such as the name of the facility at the shooting location. The image data column 118 shows data of images taken at the location or facility or their identification information. The photographing date and time column 120 indicates the date and time when the image was photographed, and the event column 122 indicates the name of the event that was being held at the location at the time of photographing.

すなわち画像データ情報110により、画像データ欄118に示された各画像データが、位置欄112、住所欄114、施設ID欄116に記載の「場所の情報」に対応づけられるとともに、撮影日時欄120欄、イベント欄122に記載の「撮影状況」に対応づけられる。ただし「場所の情報」と「撮影状況」の項目や、画像データ情報110のデータ構造を図示する例に限定する趣旨ではない。ここで、画像データ情報110が示す撮影状況は、画像データ固有の情報であり、Exifや手入力などにより取得される。これを図6の状況選択用アイコン102により効率的に絞り込むために、撮影日時やイベントの分類情報を準備する。 That is, according to the image data information 110, each image data shown in the image data column 118 is associated with "location information" described in the location column 112, address column 114, and facility ID column 116, and the shooting date and time column 120 column, and the “shooting situation” described in the event column 122. However, the purpose is not to limit the items of "location information" and "shooting situation" or the data structure of the image data information 110 to the illustrated example. Here, the shooting situation indicated by the image data information 110 is information unique to the image data, and is obtained by Exif or manual input. In order to efficiently narrow this down using the situation selection icon 102 in FIG. 6, the shooting date and time and event classification information are prepared.

図8は、本実施の形態で用いる撮影状況の分類情報の構造を例示している。この例で分類情報130は、位置欄132、住所欄134、施設ID欄136、時間帯欄138、季節欄140、およびイベント分類欄142を含む。位置欄132、住所欄134、施設ID欄136は、図7で示した位置欄112、住所欄114、施設ID欄116と同じ情報を示す。時間帯欄138、季節欄140、イベント分類欄142は、その場所に対し選択肢として提示できる時間帯、季節、イベントの分類をそれぞれ示す。 FIG. 8 exemplifies the structure of classification information of photographing situations used in this embodiment. In this example, the classification information 130 includes a location field 132, an address field 134, a facility ID field 136, a time zone field 138, a season field 140, and an event classification field 142. The location column 132, address column 134, and facility ID column 136 show the same information as the location column 112, address column 114, and facility ID column 116 shown in FIG. The time zone column 138, the season column 140, and the event classification column 142 indicate time zone, season, and event categories that can be presented as options for the location, respectively.

例えば図示する「City Center」に対しては、「日中」および「夜間」の撮影画像がある一方、季節は「春」、「秋」、「冬」の画像があるが「夏」はない。また、「展示会」と「コンサート」に分類されるイベントの画像がある。ただし撮影状況の分類の項目はこれに限らない。時間的な状況や被写体の状況のそれぞれに対し、様々な粒度の分類を準備することにより、画像の絞り込みを効率的に行える。分類情報130は、図7で示した画像データ情報110とともに画像データベース60に格納しておく。 For example, for the "City Center" shown in the diagram, there are images taken during the day and at night, and there are images of the seasons "spring," "autumn," and "winter," but not "summer." . There are also images of events classified as "exhibitions" and "concerts." However, the items for classification of shooting situations are not limited to this. By preparing classifications of various granularity for each temporal situation and subject situation, images can be narrowed down efficiently. The classification information 130 is stored in the image database 60 together with the image data information 110 shown in FIG.

画像提供サーバ20の属性取得部72は、新たな撮影画像が取得される都度、そのデータを図7の画像データ情報110に登録するとともに、その属性に基づき分類情報130を必要に応じて更新する。画像の閲覧時には、画像処理装置10のアイコン表示部64は、指定された場所の分類情報130を画像提供サーバ20から取得して、選択可能な撮影状況の分類を状況選択用アイコン102に選択肢として表す。 Each time a new captured image is acquired, the attribute acquisition unit 72 of the image providing server 20 registers the data in the image data information 110 in FIG. 7, and updates the classification information 130 based on the attribute as necessary. . When viewing images, the icon display unit 64 of the image processing device 10 obtains the classification information 130 of the specified location from the image providing server 20, and displays selectable shooting situation classifications as options in the situation selection icon 102. represent.

そしてユーザにより選択肢のいずれかが選択されたら、画像切り替え部66は、画像データ情報110において当該場所に対応づけられた画像データのうち、選択された撮影状況に該当するデータを画像提供サーバ20から取得し表示する。該当する画像が複数存在する場合は、そのうちの1つを拡大表示し、その他の画像をサムネイルとして表示してもよい。なお図7に示した画像データ情報110と図8に示した分類情報130は、実際には1つのテーブルとしたり、分類ごとに画像データを対応づけたりしてもよい。 When one of the options is selected by the user, the image switching unit 66 selects data corresponding to the selected shooting situation from the image providing server 20 among the image data associated with the location in the image data information 110. Get and display. If there are multiple corresponding images, one of them may be displayed in an enlarged manner, and the other images may be displayed as thumbnails. Note that the image data information 110 shown in FIG. 7 and the classification information 130 shown in FIG. 8 may actually be one table, or the image data may be associated for each classification.

次に、以上の構成によって実現できる本実施の形態の画像表示の処理手順を示す。図9は、画像処理装置10が画像提供サーバ20との連携により、場所に対応する撮影画像を表示する処理手順を示すフローチャートである。このフローチャートは、地図のアプリケーションの一部として撮影画像を表示する態様を想定しているが、上述のとおり画像表示の前段でなされる処理は地図表示に限らない。また画像表示部56が表示する画像は基本的に、データ要求部52が要求し画像提供サーバ20から送信された画像のデータをデータ取得部54が取得したものであるが、その手順は省略している。 Next, the image display processing procedure of this embodiment that can be realized by the above configuration will be described. FIG. 9 is a flowchart showing a processing procedure in which the image processing device 10 displays a photographed image corresponding to a location in cooperation with the image providing server 20. This flowchart assumes a mode in which a captured image is displayed as part of a map application, but as described above, the processing performed before image display is not limited to map display. Furthermore, the image displayed by the image display section 56 is basically the data obtained by the data acquisition section 54 from the image data requested by the data request section 52 and transmitted from the image providing server 20, but this step will be omitted. ing.

まず画像処理装置10に対するユーザ操作により地図のアプリケーションが起動されると、画像表示部56の画像切り替え部66は、電子地図の画像を表示装置16に表示する(S10)。ユーザが検索したい施設の名前を入力したり、地図上の位置を指示したりして場所の指定がなされるまでは、地図に対する操作に応じた図示しない処理を実施しつつ待機する(S12のN)。場所の指定がなされたら(S12のY)、画像切り替え部66は、図5の(a)に示すように、当該場所の情報とともに、その場所を撮影した画像のサムネイルを表示する(S14)。 First, when a map application is activated by a user operation on the image processing device 10, the image switching unit 66 of the image display unit 56 displays an image of the electronic map on the display device 16 (S10). Until the user specifies the location by inputting the name of the facility he or she wishes to search for or by specifying its location on the map, the system waits while performing processing (not shown) in response to operations on the map (N in S12). ). When a location is specified (Y in S12), the image switching unit 66 displays information on the location as well as a thumbnail of an image taken of the location (S14), as shown in FIG. 5(a).

ここで表示する画像はあらかじめ決められた規則で選択したものでよい。なお図5の(a)の地図表示画面の例では、サムネイル86aは、主たる表示を地図から撮影画像に切り替えるためのGUIの役割を有するため、場合によってはサムネイルの代わりに、切り替え用のGUIを表示してもよい。表示させたサムネイルの画像やGUIに対し何ら操作がなされなければ、画像表示部56は地図に対する操作に応じた図示しない処理を実施しつつ待機する(S16のN)。 The images to be displayed here may be selected according to predetermined rules. In the example of the map display screen in FIG. 5A, the thumbnail 86a has the role of a GUI for switching the main display from the map to the photographed image, so in some cases, a GUI for switching may be used instead of the thumbnail. May be displayed. If no operation is performed on the displayed thumbnail image or GUI, the image display unit 56 waits while performing processing (not shown) corresponding to the operation on the map (N in S16).

サムネイルの画像やGUIに対し操作がなされ(S16のY)、それが上述のような長押し操作でなければ(S18のY)、画像切り替え部66は、操作されたサムネイルを図5の(b)に示す画像欄90に拡大表示するなど、当該操作に設定された表示を実行する(S20)。GUIが操作された場合は、所定の規則で選択された画像を拡大表示してもよい。サムネイルの画像やGUIに対する操作が長押しであれば(S18のN)、アイコン表示部64は、図6の(a)に示すように、撮影状況を選択するための状況選択用アイコン102を、指示された位置に表示する(S22)。そしてそのまま指示位置がスライドするなどして、ある撮影状況が選択されたら、画像切り替え部66は当該撮影状況に該当する画像を、図5の(b)に示す画像欄90に表示する(S24)。 If an operation is performed on the thumbnail image or GUI (Y in S16), but it is not a long-press operation as described above (Y in S18), the image switching unit 66 changes the operated thumbnail to (b in FIG. 5). ) The display set for the operation, such as enlarged display in the image field 90 shown in ), is executed (S20). When the GUI is operated, an image selected according to a predetermined rule may be enlarged and displayed. If the operation on the thumbnail image or GUI is a long press (N in S18), the icon display section 64 displays the situation selection icon 102 for selecting the shooting situation, as shown in FIG. 6(a). It is displayed at the designated position (S22). When a certain shooting situation is selected by, for example, sliding the designated position, the image switching unit 66 displays the image corresponding to the shooting situation in the image field 90 shown in FIG. 5(b) (S24). .

ユーザ操作などにより表示を終了させる必要がなければ、S16~S24の処理を繰り返す(S26のN)。ただし2巡目以降は、S16での操作対象はサムネイルの画像に限らず、画像欄90に拡大表示された画像でもよい。またS20においてなされる処理は、画像切り替え部66によるサムネイルの拡大表示のほか、視点変化処理部68による視点や視線の変化に対応する処理などでもよい。ここで、視点移動先の画像へ表示を切り替える際は、直近で選択されたのと同じ撮影状況の画像を選択して表示させる。表示を終了させる必要が生じたら全処理を終了させる(S26のY)。 If there is no need to end the display due to user operation or the like, the processes of S16 to S24 are repeated (N of S26). However, from the second round onwards, the operation target in S16 is not limited to the thumbnail image, but may also be an image enlarged and displayed in the image column 90. Further, the processing performed in S20 may include not only enlarged display of thumbnails by the image switching unit 66 but also processing corresponding to a change in viewpoint or line of sight by the viewpoint change processing unit 68. Here, when switching the display to the image to which the viewpoint has been moved, an image with the same shooting situation as the most recently selected image is selected and displayed. If it becomes necessary to end the display, all processing is ended (Y in S26).

以上述べた本実施の形態によれば、ユーザが指定した場所の撮影画像を表示する際、あるいは表示中に、特定の操作により撮影状況を選択するための状況選択用アイコンを表示する。そして当該アイコン操作により選択された状況で撮影された画像を表示対象とする。これにより、同じ場所でも所望の様子の画像を効率的に提示できるため、方針や制限を設けず画像を収集しても、画像の多さに起因した不都合が生じにくい。結果としてユーザは、あらゆる場所の撮影画像を好適に閲覧したり場所の様子を確認したりすることができる。 According to the present embodiment described above, when displaying a captured image of a location specified by the user, or during display, a situation selection icon for selecting a shooting situation by a specific operation is displayed. The image taken in the situation selected by the icon operation is then displayed. As a result, images of a desired situation can be efficiently presented even in the same place, so even if images are collected without setting any policies or restrictions, inconveniences due to the large number of images are unlikely to occur. As a result, the user can conveniently view captured images of any location and check the state of the location.

また、画像上に表示したアイコンによって、その画像自体を切り替えるため、別途選択メニューを表示させたりサムネイル画像を並べ直したりするのに比べ、気が逸れることがなく、拡大した状態での画像の比較も容易である。さらに全天周画像により自由な視点や視線で場所の画像を鑑賞する態様においては、視点移動に対して統一性のある画像を表示させ続けることができるため、臨場感が損なわれにくく、周辺の様子を違和感なく確認できる。 In addition, since the image itself is switched depending on the icon displayed on the image, compared to displaying a separate selection menu or rearranging thumbnail images, it is less distracting and allows you to compare images in an enlarged state. is also easy. Furthermore, in the mode of viewing images of a place from a free viewpoint or line of sight using an all-sky image, it is possible to continue displaying a consistent image even when the viewpoint moves, so the sense of realism is less likely to be impaired, and surrounding You can check the situation without feeling uncomfortable.

実施の形態2
実施の形態1は、同じ場所の撮影画像について、撮影状況を容易に選択したり統一したりする技術であった。本実施の形態では、同じ住所(地上での同じ地点)の撮影画像のうち異なる階の画像を区別して選択できるようにする。地図は一般的に、各施設や道路の水平方向の位置関係がわかるように、地上を俯瞰した図として表される。そのため建物の階数や、各階の様子を地図のみから把握することは難しい。階層別の地図が準備されることはあっても、その必要性がある大規模な施設に限られる。
Embodiment 2
Embodiment 1 is a technique for easily selecting and unifying the shooting conditions for images taken at the same location. In this embodiment, it is possible to distinguish and select images on different floors among images taken at the same address (same point on the ground). Maps are generally represented as a bird's-eye view of the ground so that the horizontal positional relationships of facilities and roads can be seen. Therefore, it is difficult to understand the number of floors of a building and the condition of each floor from a map alone. Although hierarchical maps may be prepared, they are limited to large-scale facilities where there is a need for them.

また実施の形態1で示したように、地図を基点として撮影画像を表示させる場合に、緯度経度など水平方向の位置や建物全体の名称に対応づけられた画像が一度に検出され、様々な階の画像が混在した状態で表示されると、所望の階の画像へ到達するまでに多大な労力を要することになる。全天周画像で臨場感を演出する場合は特に、ある階にいる状態から、画像の切り替えで全く別の階へ移動したような状態となり、違和感や混乱を招く。そこで、撮影画像を建物の階と対応づけて分類しておくことにより、表示も階ごとに管理し、同じ建物の異なる階への移動操作をユーザから受け付けるようにする。 Furthermore, as shown in Embodiment 1, when displaying captured images using a map as a reference point, images associated with horizontal positions such as latitude and longitude and the name of the entire building are detected at once, If a mixture of images are displayed, it will take a lot of effort to reach the image of the desired floor. Particularly when creating a sense of realism using all-sky images, switching from one floor to another can create a sense of discomfort and confusion. Therefore, by classifying the captured images in association with the floors of the building, the display can also be managed for each floor, and operations to move to different floors of the same building can be accepted from the user.

本実施の形態におけるシステムの構成は図1で示した画像表示システム1と同様でよく、画像処理装置10と画像提供サーバ20の構成も図2~4で示したのと同様でよい。図10は、本実施の形態において画像データベース60に格納するデータの構造を例示している。この例で画像データ情報150は、位置欄152、住所欄154、施設ID欄156、階層欄158、および画像データ欄160を含む。位置欄152、住所欄154、施設ID欄156は、図7で示した位置欄112、住所欄114、施設ID欄116と同じ情報を示す。階層欄158は、対応する場所にある建物の階数を示し、画像データ欄160には、当該階で撮影された画像のデータまたはその識別情報を示す。 The configuration of the system in this embodiment may be the same as the image display system 1 shown in FIG. 1, and the configurations of the image processing device 10 and the image providing server 20 may also be the same as shown in FIGS. 2 to 4. FIG. 10 illustrates the structure of data stored in the image database 60 in this embodiment. In this example, the image data information 150 includes a location field 152, an address field 154, a facility ID field 156, a hierarchy field 158, and an image data field 160. The location column 152, address column 154, and facility ID column 156 show the same information as the location column 112, address column 114, and facility ID column 116 shown in FIG. The floor column 158 indicates the number of floors of the building at the corresponding location, and the image data column 160 indicates data of an image taken on the floor or its identification information.

この場合、図4で示した属性取得部72が、取得した画像データの付加情報に含まれる高度などの情報から、何階で撮影された画像かを特定してもよいし、画像提供元のユーザに、撮影した階数を入力させたり、当該ユーザが対応づけた店舗名などの情報から階数を特定したりしてもよい。また属性取得部72は、施設ID欄156に示された建物の全階数を、当該建物の公式情報などから特定し、別途対応づけておく。なお図示する画像データ情報150を、図7に示した画像データ情報110と統合し、1つのデータベースとしてもよい。この場合、実施の形態1および2を同時に実現できる。 In this case, the attribute acquisition unit 72 shown in FIG. 4 may specify what floor the image was taken from information such as altitude included in the additional information of the acquired image data, or the attribute acquisition unit 72 shown in FIG. The user may be asked to input the number of the floor where the image was taken, or the floor number may be specified from information such as a store name associated with the user. The attribute acquisition unit 72 also specifies the total number of floors of the building indicated in the facility ID field 156 from the official information of the building, and associates it separately. Note that the illustrated image data information 150 may be integrated with the image data information 110 illustrated in FIG. 7 to form one database. In this case, Embodiments 1 and 2 can be implemented simultaneously.

図11は、図10の画像データ情報150における画像データ欄160に、さらに階層での位置を対応づける場合に、画像データベース60に格納するデータを説明するための図である。図の左側に建物の階層の模式図を示す。この例では1階から3階の各階における同じ位置(フロア上での水平方向に同じ位置)a、b、c、d、e、fを定義している。このうち黒丸はそこでの画像データがある位置、白丸はそこでの画像データがない位置である。 FIG. 11 is a diagram for explaining data to be stored in the image database 60 when the image data column 160 in the image data information 150 of FIG. 10 is further associated with a position in the hierarchy. A schematic diagram of the building hierarchy is shown on the left side of the figure. In this example, the same positions (same horizontal positions on the floor) a, b, c, d, e, and f are defined on each floor from the first floor to the third floor. Among these, black circles are positions where image data exists, and white circles are positions where there is no image data.

例えば2階の位置c、e、fは、吹き抜けの構造によりフロアがないため画像データが存在しない。3階の位置aのように、フロアがあっても画像データがない場合もある。定義された位置で画像データを管理する場合、図10で示した画像データ欄160の代わりに、図11の右側に示すテーブル162を対応づける。テーブル162は、階層ごと、および位置ごとに、画像データの有無を表す。またこの例では画像データがある場合、例えば「001」、「002」、・・・といったように、その識別情報を直接対応づけているが、画像データとの紐付けは別のテーブルで行ってもよい。 For example, image data does not exist for positions c, e, and f on the second floor because there are no floors due to the open-air structure. There are cases where there is a floor but no image data, such as position a on the third floor. When managing image data at a defined position, a table 162 shown on the right side of FIG. 11 is associated instead of the image data field 160 shown in FIG. 10. The table 162 represents the presence or absence of image data for each layer and position. Also, in this example, if there is image data, its identification information is directly associated, for example "001", "002", etc., but the association with the image data is done in a separate table. Good too.

このように各階の位置ごとに画像データを管理することにより、表示中の階から別の階へ移動する操作がなされたときに、選択された階層の同じ位置へ画像を切り替えることができる。例えば1階の位置aの画像を表示している際、2階への移動操作がなされたら、2階の位置aの画像へ表示を切り替える。このようにすると、切り替え後の画像が、選択した階層のどの位置にあたるのかを容易に把握でき、その後の移動に混乱を来さない。 By managing image data for each floor position in this way, when an operation to move from the currently displayed floor to another floor is performed, the image can be switched to the same position on the selected floor. For example, when an image at position a on the first floor is displayed, if a movement operation to the second floor is performed, the display is switched to an image at position a on the second floor. In this way, it is possible to easily understand which position in the selected hierarchy the image after switching corresponds to, and there is no confusion in subsequent movement.

図12は、本実施の形態で表示装置16に表示される画像の例を示している。(a)は、建物中、ある階の撮影画像を表示させた状態を示している。これらの画像は、例えば図5に示したように、地図のアプリケーションにより電子地図を表示させ、検索やカーソル操作により所定の建物が指定されたことにより、図5の(b)における撮影画像表示画面の画像欄90に表示される。ただし建物、住所、緯度経度など地上での位置を指定した結果であれば、地図から切り替えた画像に限定されない。 FIG. 12 shows an example of an image displayed on the display device 16 in this embodiment. (a) shows a state in which a photographed image of a certain floor in a building is displayed. For example, as shown in FIG. 5, these images are created by displaying an electronic map using a map application, and specifying a predetermined building through a search or cursor operation. is displayed in the image field 90. However, as long as it is the result of specifying a location on the ground such as a building, address, latitude and longitude, it is not limited to images switched from a map.

(a)の左側の画像170は全天周画像の一部であり、図5の(b)の場合と同様、視点を移動させるための移動用アイコン94が表示されている。すなわちこれを指示すると、矢印の方向(図では奥の方向)へ視点が移動し、その先の全天周画像が表示される。本実施の形態ではさらに、移動用アイコン94を長押しすると、階数を選択するための階数選択用アイコン172が表示されるようにする。図示する階数選択用アイコン172は一例として、地下2階(「B2F」)から地上3階(「3F」)までを選択肢とし、それぞれに領域を与えた矩形のアイコンとしている。 The image 170 on the left side of (a) is a part of the all-sky image, and similarly to the case of (b) of FIG. 5, a movement icon 94 for moving the viewpoint is displayed. In other words, when you specify this, the viewpoint moves in the direction of the arrow (toward the back in the figure), and a full-sky image ahead is displayed. Further, in this embodiment, when the movement icon 94 is pressed for a long time, a floor number selection icon 172 for selecting a floor number is displayed. The illustrated floor number selection icon 172 is, for example, a rectangular icon with options ranging from the second basement floor ("B2F") to the third floor above ground ("3F"), each with its own area.

アイコン表示部64は、画像提供サーバ20から、建物の全階数の情報と、画像が存在し選択可能な階数に係る情報を取得することで、階数選択用アイコン172の構成を決定する。例えば階数選択用アイコン172に全階数の領域を設け、選択できない階数の領域を他と異ならせ、選択できないことを示す。また図示するように、現在表示されている画像、この例では1階(「1F」)も、階数選択用アイコン172上で他の階と色を異ならせ、選択できないようにする。 The icon display unit 64 determines the configuration of the floor number selection icon 172 by acquiring information on the total number of floors of the building and information on the number of selectable floors where images exist from the image providing server 20 . For example, an area for all floors is provided in the floor selection icon 172, and areas for floors that cannot be selected are made different from other areas to indicate that they cannot be selected. Further, as shown in the figure, the currently displayed image, in this example the first floor ("1F"), is also colored differently from other floors on the floor number selection icon 172, so that it cannot be selected.

なお図11で示したように、画像データを位置ごとに管理する場合は、表示中の位置と同じ位置の画像データがない階を、選択できない階層に含めてもよい。あるいは、他の位置であれば画像データが存在する階については、さらに別の表示色を用いたりその旨を文字などで表現したりして、ユーザの了承を得たうえで選択可能としてもよい。画像提供サーバ20は、画像データベース60のテーブル162を参照し、そのような位置に対する選択の可否に係る情報も画像処理装置10に送信する。ユーザは階数選択用アイコン172のうちいずれかの選択肢を指示することにより所望の階を選択する。ただし階数選択用アイコン172の形状や構成をこれに限る趣旨ではない。また階数選択用アイコン172を表示させるための操作も限定されない。 Note that, as shown in FIG. 11, when image data is managed for each position, a floor that does not have image data at the same position as the currently displayed position may be included in the unselectable hierarchy. Alternatively, for floors where image data exists at other locations, a different display color or text may be used to indicate this, allowing selection after obtaining the user's consent. . The image providing server 20 refers to the table 162 of the image database 60 and also transmits information regarding whether such a position can be selected to the image processing apparatus 10. The user selects a desired floor by indicating one of the options from the floor number selection icons 172. However, the shape and configuration of the floor number selection icon 172 is not limited to this. Furthermore, the operation for displaying the floor number selection icon 172 is not limited.

(a)の右側の画像174は、表示装置16の画面を覆うように、マルチタッチ操作対応のタッチパッドを入力装置14として設けた場合を想定している。この場合、画像表示部56の視点変化処理部68は、例えばシングルタッチ(接触点が1つ)で接触させた指などをスライドさせるスワイプ操作に応じて、全天周画像に対する視線の方向を転換させる。画像170と同様に、移動用アイコン94を表示させ、それに対するタッチ操作に応じて、視点を先に進めるようにしてもよい。 The image 174 on the right side of (a) assumes a case where a touch pad compatible with multi-touch operation is provided as the input device 14 so as to cover the screen of the display device 16. In this case, the viewpoint change processing unit 68 of the image display unit 56 changes the direction of the line of sight with respect to the omnidirectional image in response to, for example, a swipe operation in which a finger or the like touched with a single touch (one contact point) is slid. let Similarly to the image 170, the movement icon 94 may be displayed, and the viewpoint may be advanced in response to a touch operation on the movement icon 94.

本実施の形態ではさらに、マルチタッチ(接触点が複数)で接触させた指を、画面上の上下方向と見なせる方向にスライドさせるスワイプ操作に応じて、その方向に対応づけられた、1つ上または下の階へ表示を切り替える。図示する例では矢印で示すように、上方へのスワイプ操作により、1つ下の階の画像へ表示を切り替える。これにより、表示中の階を上へ移動させるような感覚で直感的な操作を実現できる。接触点の数により、視点や視線の操作と、階数移動の操作を区別することにより、容易な両立が可能となる。 In this embodiment, furthermore, in response to a swipe operation in which a finger that has been in contact with a multi-touch (multiple touch points) is slid in a direction that can be considered as the up and down direction on the screen, a screen is displayed that moves up one level corresponding to that direction. Or switch the display to the lower floor. In the illustrated example, by swiping upward as indicated by the arrow, the display is switched to the image of the next floor below. This allows for intuitive operation that feels like moving up the displayed floor. By distinguishing the viewpoint or line of sight operation from the floor movement operation by the number of contact points, it becomes possible to easily achieve both.

(b)は、画像170または画像174への上述した操作により、下の階へ表示を切り替える際の遷移期間における画像を示している。この例では遷移期間として、切り替え前の画像176と切り替え後の画像178を合成した画像を表す。ここで各階の画像は、建物の階層の上下関係に対応するように配置する。すなわち切り替え前の階に対し切り替え後の階が下であれば下側に、切り替え後の階が上であれば上側に、切り替え後の画像を配置する。そして切り替え後の画像の面積が徐々に大きくなるように両者の境界を移動させることにより、切り替え後の画像が階層に対応する方向から出現するように演出する。 (b) shows an image during a transition period when the display is switched to a lower floor by the above-described operation on image 170 or image 174. In this example, the transition period represents an image obtained by combining the image 176 before switching and the image 178 after switching. Here, the images of each floor are arranged so as to correspond to the hierarchy of the building. That is, if the floor after switching is lower than the floor before switching, the image after switching is placed on the lower side, and if the floor after switching is higher than the floor before switching, the image after switching is placed on the upper side. By moving the boundary between the two so that the area of the image after switching gradually increases, the image after switching is created to appear from the direction corresponding to the hierarchy.

例えば双方の画像をアルファブレンド合成し、切り替え後の画像178を透明(α=0)とする領域を縦方向に狭めていけばよい。α値を適切に制御することにより、両画像の境界を半透明に合成してもよい。ただし遷移期間の画像の見せ方はこれに限定されず、例えば切り替え前後の画像自体を上または下方向にスライドさせてもよいし、両者を縦方向に拡大縮小させてもよい。いずれにしろ、建物の階と対応する方向から切り替え後の階の画像が出現するようにすることで、ユーザ自身が建物の異なる階層へ移動中である感覚を得ることができる。 For example, both images may be alpha blended and the area in which the switched image 178 is made transparent (α=0) may be narrowed in the vertical direction. By appropriately controlling the α value, the boundaries between both images may be combined into a translucent state. However, the way the images are displayed during the transition period is not limited to this. For example, the images before and after switching may be slid upward or downward, or both may be enlarged or reduced in the vertical direction. In any case, by making the image of the switched floor appear from the direction corresponding to the building floor, the user can feel that he or she is moving to a different floor of the building.

(b)に示した遷移期間を経て、(c)に示すように切り替え後の階で撮影された画像が表示される。なお切り替え後の階、あるいはそのうちの同じ位置に複数の画像が対応づけられている場合、例えば実施の形態1のように撮影状況を選択できるようにすれば、所望の階の所望の状況の画像へのアクセスが容易になる。また表示中の画像にエレベータが含まれる場合、切り替え後の階層の画像にも同じエレベータが含まれていると、ユーザは実際にエレベータで移動したような感覚で、その後の視点の移動方向を容易に定めることができる。 After the transition period shown in (b), the image taken on the floor after switching is displayed as shown in (c). Note that if multiple images are associated with the floor after switching or the same position among them, for example, if the shooting situation can be selected as in Embodiment 1, the image of the desired situation on the desired floor can be displayed. easier access to. In addition, if the image being displayed includes an elevator, if the same elevator is also included in the image of the next layer after switching, the user will feel as if they were actually moving in an elevator, and it will be easier to change the direction of the viewpoint afterward. can be determined.

そのため、表示中の画像にエレベータが含まれている場合、画像170に示した移動用アイコン94の代わりにエレベータの像が長押しされたら、階数選択用アイコン172を表示させるようにしてもよい。この場合、入力情報取得部50は、エレベータの像の領域が長押しされたことを認識し、画像切り替え部66は、切り替え後の画像においてもエレベータの像が含まれるように視野を決定する。エレベータに限らず、エスカレータ、階段、トイレなど、複数の階で同じ位置に同じ設備がある場合は、切り替え後にも対応する設備の像を示すことにより、位置の把握がより容易になる。 Therefore, if the image being displayed includes an elevator, the floor number selection icon 172 may be displayed when the elevator image is pressed and held instead of the moving icon 94 shown in the image 170. In this case, the input information acquisition unit 50 recognizes that the area of the elevator image has been pressed for a long time, and the image switching unit 66 determines the field of view so that the image after switching also includes the elevator image. If the same equipment is located at the same location on multiple floors, such as not only elevators but also escalators, stairs, toilets, etc., the location can be more easily understood by showing the image of the corresponding equipment even after switching.

この場合、階数選択用アイコン172の表示操作を受け付ける設備をあらかじめ設定しておき、入力情報取得部50は、表示中の画像に当該設備のいずれかが含まれたら、その像の領域に対する指示操作を検出する。ここでの操作は長押しでもよいしそれ以外の所定の操作でもよい。そして階数選択用アイコンにより選択された階へ画像を切り替える際、画像切り替え部66は、同じ設備の像が含まれるように視野を決定する。なお図示する例は建物の内部の撮影画像であったが、本実施の形態の表示対象をそれに限る趣旨ではなく、2次元の地図で表すことが難しい高さのデータと対応づけることができる画像であれば、建物の外部や標高差のある陸地の画像などでもよい。 In this case, the equipment that accepts the display operation of the floor number selection icon 172 is set in advance, and when any of the equipment is included in the image being displayed, the input information acquisition unit 50 performs an instruction operation on the area of the image. Detect. The operation here may be a long press or any other predetermined operation. When switching the image to the floor selected by the floor number selection icon, the image switching unit 66 determines the field of view so that images of the same equipment are included. Note that although the illustrated example is a photographed image of the inside of a building, the display target of this embodiment is not limited to that, but rather images that can be associated with height data that is difficult to represent on a two-dimensional map. If so, images of the outside of a building or land with a difference in elevation may be used.

図13は、階数を選択する操作を受け付けるための別の態様を示している。この例で表示画像180は、吹き抜けの建物の内部を示している。すなわち表示中の階(水平方向の視点移動操作を受け付ける階)以外の階も視野に含まれている。この場合、移動先の別の階を直接選択できるようにした方が効率的かつ理解が容易である。一方、表示中の階における水平方向の視点移動操作との混同を避けるため、この場合も別の階への移動は長押し操作とする。図示する例では3階部分が指により長押しされていることを示し、入力情報取得部50が当該操作を検知することにより、画像切り替え部66は3階部分へ表示を切り替える。 FIG. 13 shows another mode for accepting an operation for selecting a floor number. In this example, the display image 180 shows the inside of a building with an atrium. That is, floors other than the floor currently being displayed (the floor that accepts the horizontal viewpoint movement operation) are also included in the visual field. In this case, it is more efficient and easier to understand if the user can directly select another floor to move to. On the other hand, in order to avoid confusion with the horizontal viewpoint movement operation on the currently displayed floor, moving to another floor is also a long-press operation in this case. The illustrated example shows that the third floor portion is pressed and held by a finger, and when the input information acquisition unit 50 detects this operation, the image switching unit 66 switches the display to the third floor portion.

移動先が直接長押しされたことから、この場合の切り替え後の画像は、好適には選択された階のうち長押しされた位置近傍の画像とする。これにより、上下方向を含め建物内で視線を自由に移動させることが可能となる。この態様は吹き抜けに限らず、エスカレータや階段付近など、表示中の階の画像に別の階の一部が表れていれば同様に実現できる。画像の遷移は図12で示したのと同様でもよいし、指示された位置へ視点を徐々に移動させるようにしてもよい。なお同一階の水平方向の移動操作と区別できれば、別階層への移動操作は長押しに限らない。例えばマルチタッチやダブルタップなどでもよい。またこの態様は、階層選択用アイコンを表示する態様と組み合わせてもよいし、独立で実現してもよい。 Since the destination was directly pressed and held, the image after switching in this case is preferably an image of the selected floor near the position that was pressed and held. This makes it possible to move the line of sight freely within the building, including vertically. This aspect is not limited to an atrium, and can be similarly realized if a part of another floor appears in the image of the floor being displayed, such as near an escalator or stairs. The image transition may be similar to that shown in FIG. 12, or the viewpoint may be gradually moved to a designated position. Note that the movement operation to another floor is not limited to a long press, as long as it can be distinguished from the horizontal movement operation on the same floor. For example, multi-touch or double tap may be used. Further, this aspect may be combined with the aspect of displaying the hierarchy selection icon, or may be realized independently.

次に、以上の構成によって実現できる本実施の形態の画像表示の処理手順を示す。図14は、画像処理装置10が画像提供サーバとの連携により、場所に対応する撮影画像を表示する処理手順を示すフローチャートである。このフローチャートは、地図のアプリケーションの一部として撮影画像を表示する態様を想定しているが、上述のとおり画像表示の前段でなされる処理は地図表示に限らない。また画像表示部56が表示する画像は基本的に、データ要求部52が要求し画像提供サーバ20から送信された画像のデータをデータ取得部54が取得したものであるが、その手順は省略している。 Next, the image display processing procedure of this embodiment that can be realized by the above configuration will be described. FIG. 14 is a flowchart showing a processing procedure in which the image processing device 10 displays a captured image corresponding to a location in cooperation with an image providing server. This flowchart assumes a mode in which a captured image is displayed as part of a map application, but as described above, the processing performed before image display is not limited to map display. Furthermore, the image displayed by the image display section 56 is basically the data obtained by the data acquisition section 54 from the image data requested by the data request section 52 and transmitted from the image providing server 20, but this step will be omitted. ing.

まず画像処理装置10に対するユーザ操作により地図のアプリケーションが起動されると、画像表示部56の画像切り替え部66は、電子地図の画像を表示装置16に表示する(S30)。ユーザが検索したい施設の名前を入力したり、地図上の位置を指示したりして場所の指定がなされるまでは、地図に対する操作に応じた図示しない処理を実施しつつ待機する(S32のN)。場所の指定がなされたら(S32のY)、画像切り替え部66は、図5の(b)に示すように、当該場所にある建物の画像のうち所定の規則で選択された画像を拡大表示する(S34)。 First, when a map application is activated by a user operation on the image processing device 10, the image switching unit 66 of the image display unit 56 displays an image of the electronic map on the display device 16 (S30). Until the user specifies the location by inputting the name of the facility he or she wishes to search for or by specifying its location on the map, the system waits while performing a process (not shown) corresponding to the operation on the map (N in S32). ). When a location is specified (Y in S32), the image switching unit 66 enlarges and displays an image selected according to a predetermined rule from among the images of buildings in the location, as shown in FIG. 5(b). (S34).

この際、実施の形態1と同様に、一旦サムネイルを表示し、拡大表示させる画像をユーザに選択させてもよいし、画像提供サーバ20がデータベースの中から所定の規則で選択してもよい。そしてアイコン表示部64は、視点を移動させるための視点移動用アイコンを撮影画像に重畳表示する(S36)。表示した視点移動用アイコンに対し何ら操作がなされなければ、画像表示部56は視線の転換や別の画像の選択操作などに応じた図示しない処理を実施しつつ待機する(S38のN)。視点移動用アイコンに対し操作がなされ(S38のY)、それが長押し操作でなければ(S40のY)、視点変化処理部68は、視点の移動先の画像へ表示を切り替える(S42)。 At this time, as in the first embodiment, thumbnails may be displayed once and the user may select an image to be enlarged, or the image providing server 20 may select from the database according to a predetermined rule. Then, the icon display unit 64 displays a viewpoint movement icon for moving the viewpoint superimposed on the photographed image (S36). If no operation is performed on the displayed viewpoint movement icon, the image display unit 56 waits while performing a process (not shown) corresponding to a change in line of sight, an operation for selecting another image, etc. (N in S38). If an operation is performed on the viewpoint movement icon (Y in S38), but it is not a long-press operation (Y in S40), the viewpoint change processing unit 68 switches the display to the image to which the viewpoint is to be moved (S42).

視点移動用アイコンに対する操作が長押しであれば(S40のN)、アイコン表示部64は、図12の画像170のように、階数選択用アイコン172を表示する(S44)。そして階数選択用アイコン172のうちある階が選択されたら、画像切り替え部66は選択された階の画像を表示する(S46)。この際、図12の(b)に示すように、階層の上下関係に対応する方向から切り替え後の画像が出現するような遷移期間を経て、(c)に示すような切り替え後の階の画像を表示する。また位置によって画像データを管理している場合は、切り替え前の位置と同じ位置の画像を表示する。 If the operation on the viewpoint movement icon is a long press (N in S40), the icon display section 64 displays the floor number selection icon 172 as shown in the image 170 in FIG. 12 (S44). When a certain floor is selected from among the floor number selection icons 172, the image switching section 66 displays the image of the selected floor (S46). At this time, as shown in FIG. 12(b), after a transition period in which the image after switching appears from the direction corresponding to the vertical relationship of the hierarchy, the image of the floor after switching as shown in FIG. 12(c) appears. Display. If image data is managed by position, the image at the same position as before switching is displayed.

なおマルチタッチ対応のタッチパッドを導入する場合は、S38、S40、S44の処理の代わりに、マルチタッチのスワイプ操作により、スライドした方向と逆方向において次の階の画像を表示する。また、所定の設備の像に対する長押し操作を受け付ける場合は、S38、S40の視点移動用アイコンへの長押し操作の判定の代わりに、当該設備の像に対する指示操作を判定する。そしてS46においては、同じ設備の像が表示に含まれるようにする。 Note that when a multi-touch compatible touch pad is introduced, instead of the processing in S38, S40, and S44, an image of the next floor is displayed in the opposite direction to the sliding direction by a multi-touch swipe operation. Further, when accepting a long press operation on the image of a predetermined equipment, instead of determining the long press operation on the viewpoint movement icon in S38 and S40, an instruction operation on the image of the equipment is determined. Then, in S46, images of the same equipment are included in the display.

さらに、S34で表示した画像に別の階の一部が表れている場合は、S38、S40の視点移動用アイコンへの長押し操作の判定の代わりに、当該別の階の像に対する指示操作を判定する。この場合、S44の階数選択用アイコンの表示処理は省略し、S46において、指示された別の階の画像のうち、該当する位置の画像を表示する。 Furthermore, if a part of another floor appears in the image displayed in S34, instead of determining the long press operation on the viewpoint movement icon in S38 and S40, an instruction operation on the image of the other floor is performed. judge. In this case, the process of displaying the floor number selection icon in S44 is omitted, and in S46, the image at the corresponding position among the images of the designated different floor is displayed.

ユーザ操作などにより表示を終了させる必要がなければ、S36~S46の処理を繰り返す(S48のN)。この際、S42の視点の移動操作における切り替え後の画像や、サムネイルで表示される候補画像を、直近に選択された階の画像に限定することにより、別の階の画像が脈絡なく表示されるのを防ぐことができる。表示を終了させる必要が生じたら全処理を終了させる(S48のY)。 If there is no need to end the display due to user operation or the like, the processes of S36 to S46 are repeated (N of S48). At this time, by limiting the image after switching in the viewpoint movement operation in S42 and the candidate images displayed as thumbnails to the image of the most recently selected floor, images of another floor may be displayed without context. can be prevented. When it becomes necessary to end the display, all processing is ended (Y in S48).

以上述べた本実施の形態によれば、ユーザが指定した場所の撮影画像を表示中、特定の操作により建物の階数選択のための階選択用アイコンを表示する。そして当該アイコン操作により選択された階の画像へ表示を切り替える。これにより、2次元の地図上では同じ位置に対応する画像であっても、階ごとに区別して表示でき、ユーザは用事や興味のある階に絞って様子を確認したり構造を把握したりできる。 According to the present embodiment described above, while displaying a captured image of a location specified by the user, a floor selection icon for selecting the floor number of a building is displayed by a specific operation. Then, the display is switched to the image of the floor selected by the icon operation. As a result, even if the images correspond to the same location on a two-dimensional map, they can be displayed separately for each floor, allowing users to narrow down their work to the floor they are interested in and check the situation or understand the structure. .

全天周画像により自由な視点や視線で場所の画像を鑑賞する態様においては、視点を移動させたり視線を転換させたりするのと同様の操作感で階を遷移させることができる。さらに階層の上下関係を踏襲する方向から、選択された階の画像が出現するような遷移期間を設けることにより、建物を探索しているような臨場感を与えることができる。また階の選択に応じて、その後に表示する画像を当該階の同じ位置に絞ることにより、何ら関連のない階の画像が突然出現するといったことがなく、臨場感が損なわれにくい。さらに階選択用アイコンを表示中の画像に重畳表示することにより、別途選択メニューを表示させるのに比べ、階層間の容易な遷移が可能となる。 In a mode in which images of a place are viewed from a free viewpoint or line of sight using an all-sky image, it is possible to change floors with the same operational feeling as moving the viewpoint or changing the line of sight. Furthermore, by providing a transition period in which an image of a selected floor appears in a direction that follows the hierarchical relationship, it is possible to provide a sense of realism as if searching the building. Furthermore, by narrowing down the images to be displayed subsequently to the same position on the floor in accordance with the selection of the floor, images of unrelated floors will not suddenly appear, and the sense of realism will be less likely to be impaired. Furthermore, by superimposing the floor selection icon on the currently displayed image, it is possible to more easily transition between floors than by displaying a separate selection menu.

さらに複数の階で同じ位置に共通の設備がある場合などに、その像への指示操作を受け付け、表示階の切り替え前後で当該像が視野に含まれるようにすることにより、切り替え後の階でも方向の理解が容易になる。また表示中の画像に含まれる別の階やその位置を直接指定できるようにすることにより、別の階であってもユーザが移動したい場所へ容易に移動できるようになる。 Furthermore, in cases where there is common equipment at the same location on multiple floors, by accepting commands to the image and ensuring that the image is included in the field of view before and after switching the display floor, even on the floor after the switch. It becomes easier to understand the direction. Furthermore, by allowing the user to directly specify another floor included in the image being displayed and its position, the user can easily move to a desired location even if it is on a different floor.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. Those skilled in the art will understand that the above embodiments are merely illustrative, and that various modifications can be made to the combinations of their constituent elements and processing processes, and that such modifications are also within the scope of the present invention. be.

1 画像表示システム、 10 画像処理装置、 14 入力装置、 16 表示装置、 20 画像提供サーバ、 23 CPU、 24 GPU、 26 メインメモリ、 32 通信部、 34 記憶部、 36 出力部、 38 入力部、 40 記録媒体駆動部、 50 入力情報取得部、 52 データ要求部、 54 データ取得部、 56 画像表示部、 58 要求取得部、 60 画像データベース、 62 データ送信部、 64 アイコン表示部、 66 画像切り替え部、 68 視点変化処理部、 70 データ取得部、 72 属性取得部。 1 image display system, 10 image processing device, 14 input device, 16 display device, 20 image providing server, 23 CPU, 24 GPU, 26 main memory, 32 communication section, 34 storage section, 36 output section, 38 input section, 40 recording medium drive unit, 50 input information acquisition unit, 52 data request unit, 54 data acquisition unit, 56 image display unit, 58 request acquisition unit, 60 image database, 62 data transmission unit, 64 icon display unit, 66 image switching unit, 68 viewpoint change processing unit, 70 data acquisition unit, 72 attribute acquisition unit.

Claims (13)

データベースに格納された、一般ユーザにより撮影されアップロードされた複数の画像のうち、表示装置に表示させる画像に係るユーザ操作を受け付ける入力情報取得部と、
前記ユーザ操作に応じて、同じ場所を異なる状況で撮影した複数の画像のうちのいずれかを表示装置に表示させる画像表示部と、
を備え、
前記画像表示部は、表示中の画像と同じ場所を撮影した画像撮影時刻に係る状況および被写体に係る状況の少なくともいずれかを選択肢として表し、そのうちいずれかの選択をユーザから受け付けるための状況選択用アイコンをさらに表示させ、前記入力情報取得部が、当該状況選択用アイコンへの操作を受け付けたとき、選択された状況で撮影された画像を前記表示装置に表示させることを特徴とする画像処理装置。
an input information acquisition unit that receives a user operation related to an image to be displayed on a display device from among a plurality of images taken and uploaded by general users stored in a database;
an image display unit that causes a display device to display one of a plurality of images taken at the same place under different conditions in accordance with the user operation;
Equipped with
The image display section displays at least one of a situation related to the shooting time and a situation related to the subject of an image taken at the same place as the image being displayed as an option, and a situation for accepting a selection of one of them from the user. An image characterized in that a selection icon is further displayed, and when the input information acquisition unit receives an operation on the situation selection icon, the display device displays an image taken in the selected situation. Processing equipment.
前記入力情報取得部が、表示中の全天周画像に対し、視点を移動させる操作を受け付けたとき、前記画像表示部は、直近に選択された状況で撮影された、移動先の視点での全天周画像へ表示を切り替えることを特徴とする請求項1に記載の画像処理装置。 When the input information acquisition unit receives an operation to move the viewpoint for the all-sky image being displayed, the image display unit displays the image taken in the most recently selected situation at the destination viewpoint. The image processing device according to claim 1, wherein the display is switched to an all-sky image. 前記画像表示部は、表示中のサムネイル画像上に前記状況選択用アイコンを表示させ、選択された状況で撮影された画像を拡大表示することを特徴とする請求項1または2に記載の画像処理装置。 The image processing according to claim 1 or 2 , wherein the image display section displays the situation selection icon on the thumbnail image being displayed, and enlarges and displays the image taken in the selected situation. Device. 前記画像表示部は、表示中の画像上をユーザが指示し、同じ位置と見なされる範囲内の指示が所定時間以上継続したとき、前記状況選択用アイコンを、当該画像上の指示された位置に重畳表示することを特徴とする請求項1からのいずれかに記載の画像処理装置。 The image display section moves the situation selection icon to the specified position on the image when the user makes an instruction on the image being displayed and the instruction within a range that is considered to be the same position continues for a predetermined period of time or more. 4. The image processing apparatus according to claim 1, wherein the image processing apparatus displays images in a superimposed manner. 前記画像表示部は、前記状況選択用アイコンを表示させた後も同じ位置と見なされる範囲内の指示が所定時間以上継続したとき、別の選択肢を表した前記状況選択用アイコンを表示させることを特徴とする請求項に記載の画像処理装置。 The image display unit is configured to display the situation selection icon representing another option when an instruction within a range that is considered to be the same position continues for a predetermined time or more even after displaying the situation selection icon. The image processing device according to claim 4 . 前記画像表示部は、前記状況選択用アイコンを表示させた後も同じ位置と見なされる範囲内の指示が所定時間以上継続したとき、前記状況選択用アイコンの領域を拡張し、表される選択肢を増加させることを特徴とする請求項に記載の画像処理装置。 The image display section expands the area of the situation selection icon and selects the displayed option when an instruction within a range that is considered to be the same position continues for a predetermined time or more even after displaying the situation selection icon. The image processing apparatus according to claim 4 , wherein the image processing apparatus increases the number of images. 前記画像表示部は前記表示装置に地図を表示し、当該地図上でユーザが指定した位置に対応する場所の画像を表示することを特徴とする請求項1からのいずれかに記載の画像処理装置。 The image processing according to any one of claims 1 to 6 , wherein the image display unit displays a map on the display device, and displays an image of a place corresponding to a position specified by the user on the map. Device. ユーザが操作する画像処理装置と通信を確立し、当該画像処理装置においてユーザが指定した場所の画像のデータを前記画像処理装置に送信するサーバであって、
一般ユーザにより撮影されアップロードされた複数の画像と、それぞれの撮影場所と、撮影時刻に係る状況および被写体に係る状況の少なくともいずれかを表す撮影状況とを対応づけたデータベースと、
前記画像処理装置からの要求に対応する画像のデータと、当該画像と同じ場所を撮影した画像のうちユーザが選択可能な前記撮影状況に係る情報とを前記データベースより読み出して前記画像処理装置に送信するとともに、前記画像処理装置における、前記撮影状況を選択するユーザ操作に応じて、表示中の画像と同じ場所を撮影した、該当する撮影状況の画像のデータを前記データベースより読み出して前記画像処理装置に送信するデータ送信部と、
を備えたことを特徴とする画像提供サーバ。
A server that establishes communication with an image processing device operated by a user and transmits data of an image at a location specified by the user in the image processing device to the image processing device,
a database that associates a plurality of images taken and uploaded by general users, each shooting location , and a shooting situation representing at least one of the situation related to the shooting time and the situation related to the subject ;
Data of an image corresponding to a request from the image processing device and information related to the shooting situation that can be selected by the user from among images taken at the same place as the image are read from the database and transmitted to the image processing device. At the same time, in response to a user operation to select the shooting situation in the image processing device, the image processing device reads out data of an image in the corresponding shooting situation taken at the same place as the image being displayed from the database. a data transmitter that transmits data to the
An image providing server comprising:
外部の装置から画像のデータを取得するデータ取得部と、
前記画像のデータの付加情報に基づき、前記撮影場所および撮影状況に係る情報を取得し、前記画像のデータと対応づけて前記データベースに登録する属性取得部をさらに備えたことを特徴とする請求項に記載の画像提供サーバ。
a data acquisition unit that acquires image data from an external device;
Claim further comprising: an attribute acquisition unit that acquires information related to the photographing location and photographing situation based on additional information of the image data, and registers the information in the database in association with the image data. 8. The image providing server according to 8 .
データベースに格納された、一般ユーザにより撮影されアップロードされた複数の画像のうち、表示装置に表示させる画像に係るユーザ操作を受け付けるステップと、
前記ユーザ操作に応じて、同じ場所を異なる状況で撮影した複数の画像のうちのいずれかを表示装置に表示させるステップと、
表示中の画像と同じ場所を撮影した画像撮影時刻に係る状況および被写体に係る状況の少なくともいずれかを選択肢として表し、そのうちいずれかの選択をユーザから受け付けるための状況選択用アイコンを表示させるステップと、
当該状況選択用アイコンへの操作を受け付け、選択された状況で撮影された画像を前記表示装置に表示させるステップと、
を含むことを特徴とする、画像処理装置による画像表示方法。
a step of accepting a user operation related to an image to be displayed on a display device from among a plurality of images taken and uploaded by general users stored in a database;
Displaying one of a plurality of images taken at the same place under different conditions on a display device in response to the user operation;
At least one of the situations related to the shooting time and the situation related to the subject of an image taken at the same location as the image being displayed is displayed as an option, and a situation selection icon is displayed to accept a selection from the user. step and
accepting an operation on the situation selection icon and displaying an image taken in the selected situation on the display device;
An image display method using an image processing device, the method comprising:
ユーザが操作する画像処理装置と通信を確立し、当該画像処理装置においてユーザが指定した場所の画像のデータを前記画像処理装置に送信するステップと、
一般ユーザにより撮影されアップロードされた複数の画像と、それぞれの撮影場所と、撮影時刻に係る状況および被写体に係る状況の少なくともいずれかを表す撮影状況とを対応づけたデータベースから、前記画像処理装置からの要求に対応する画像のデータと、当該画像と同じ場所を撮影した画像のうちユーザが選択可能な前記撮影状況に係る情報とを読み出して前記画像処理装置に送信するステップと、
前記画像処理装置における、前記撮影状況を選択するユーザ操作に応じて、表示中の画像と同じ場所を撮影した、該当する撮影状況の画像のデータを前記データベースから読み出して前記画像処理装置に送信するステップと、
を含むことを特徴とする、画像提供サーバによる画像提供方法。
establishing communication with an image processing device operated by a user, and transmitting data of an image at a location specified by the user in the image processing device to the image processing device;
The image processing device obtains information from a database that associates a plurality of images taken and uploaded by general users, each shooting location , and a shooting situation representing at least one of the situation related to the shooting time and the situation related to the subject. reading and transmitting to the image processing device image data corresponding to the request and information related to the shooting situation that can be selected by the user from among images taken at the same place as the image;
In response to a user operation to select the photographing situation in the image processing device, data of an image of the corresponding photographing situation taken at the same place as the image being displayed is read from the database and transmitted to the image processing device. step and
An image providing method by an image providing server, the method comprising:
データベースに格納された、一般ユーザにより撮影されアップロードされた複数の画像のうち、表示装置に表示させる画像に係るユーザ操作を受け付ける機能と、
前記ユーザ操作に応じて、同じ場所を異なる状況で撮影した複数の画像のうちのいずれかを表示装置に表示させる機能と、
表示中の撮影画像と同じ場所を撮影した画像撮影時刻に係る状況および被写体に係る状況の少なくともいずれかを選択肢として表し、そのうちいずれかの選択をユーザから受け付けるための状況選択用アイコンを表示させる機能と、
当該状況選択用アイコンへの操作を受け付け、選択された状況で撮影された画像を前記表示装置に表示させる機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function that accepts user operations related to images to be displayed on a display device from among a plurality of images taken and uploaded by general users stored in a database;
a function of displaying one of a plurality of images taken at the same place under different conditions on a display device in accordance with the user operation;
At least one of the situations related to the shooting time and the situation related to the subject of an image taken at the same location as the currently displayed image is displayed as an option, and a situation selection icon is displayed to accept a selection from the user. and the function to
a function of accepting an operation on the situation selection icon and displaying an image taken in the selected situation on the display device;
A computer program that causes a computer to realize the following.
ユーザが操作する画像処理装置と通信を確立し、当該画像処理装置においてユーザが指定した場所の画像のデータを前記画像処理装置に送信する機能と、
一般ユーザにより撮影されアップロードされた複数の画像と、それぞれの撮影場所と、撮影時刻に係る状況および被写体に係る状況の少なくともいずれかを表す撮影状況とを対応づけたデータベースから、前記画像処理装置からの要求に対応する画像のデータと、当該画像と同じ場所を撮影した画像のうちユーザが選択可能な前記撮影状況に係る情報とを読み出して前記画像処理装置に送信する機能と、
前記画像処理装置における、前記撮影状況を選択するユーザ操作に応じて、表示中の画像と同じ場所を撮影した、該当する撮影状況の画像のデータを前記データベースから読み出して前記画像処理装置に送信する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
a function of establishing communication with an image processing device operated by a user and transmitting data of an image at a location specified by the user in the image processing device to the image processing device;
The image processing device obtains information from a database that associates a plurality of images taken and uploaded by general users, each shooting location , and a shooting situation representing at least one of the situation related to the shooting time and the situation related to the subject. a function of reading image data corresponding to the request and transmitting to the image processing device information related to the shooting situation that can be selected by the user from among images taken at the same place as the image;
In response to a user operation to select the photographing situation in the image processing device, data of an image of the corresponding photographing situation taken at the same place as the image being displayed is read from the database and transmitted to the image processing device. function and
A computer program that causes a computer to realize the following.
JP2019076502A 2019-04-12 2019-04-12 Image processing device, image providing server, image display method, and image providing method Active JP7373294B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019076502A JP7373294B2 (en) 2019-04-12 2019-04-12 Image processing device, image providing server, image display method, and image providing method
JP2023181869A JP7507946B2 (en) 2019-04-12 2023-10-23 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD
JP2024097994A JP2024117801A (en) 2019-04-12 2024-06-18 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019076502A JP7373294B2 (en) 2019-04-12 2019-04-12 Image processing device, image providing server, image display method, and image providing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023181869A Division JP7507946B2 (en) 2019-04-12 2023-10-23 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD

Publications (2)

Publication Number Publication Date
JP2020173718A JP2020173718A (en) 2020-10-22
JP7373294B2 true JP7373294B2 (en) 2023-11-02

Family

ID=72831427

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019076502A Active JP7373294B2 (en) 2019-04-12 2019-04-12 Image processing device, image providing server, image display method, and image providing method
JP2023181869A Active JP7507946B2 (en) 2019-04-12 2023-10-23 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD
JP2024097994A Pending JP2024117801A (en) 2019-04-12 2024-06-18 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023181869A Active JP7507946B2 (en) 2019-04-12 2023-10-23 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD
JP2024097994A Pending JP2024117801A (en) 2019-04-12 2024-06-18 IMAGE PROCESSING APPARATUS AND IMAGE DISPLAY METHOD

Country Status (1)

Country Link
JP (3) JP7373294B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139329A (en) 2000-11-06 2002-05-17 Mazda Motor Corp Vehicular display processing method, vehicular display processing device and computer-readable storage medium
WO2008078790A1 (en) 2006-12-27 2008-07-03 Waro Iwane Cv tag video display device provided with layer generating and selecting functions
US20090135178A1 (en) 2007-11-22 2009-05-28 Toru Aihara Method and system for constructing virtual space
WO2013111239A1 (en) 2012-01-26 2013-08-01 パナソニック株式会社 Mobile terminal, television broadcast receiver, and device linkage method
WO2013161319A1 (en) 2012-04-27 2013-10-31 パナソニック株式会社 Content playback method, content playback system, and content filming device
JP2013250470A (en) 2012-06-01 2013-12-12 Nintendo Co Ltd Information processing program, information processing device, information processing system and information processing method
JP2016129579A (en) 2015-01-14 2016-07-21 株式会社コロプラ Interface program and game program
JP2016161893A (en) 2015-03-05 2016-09-05 セイコーエプソン株式会社 Display device, terminal device, and display system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107823A (en) 2009-11-13 2011-06-02 Canon Inc Display controller and display control method
JP2013101465A (en) 2011-11-08 2013-05-23 Sony Corp Information processing device, information processing method, and computer program
JP6201134B2 (en) 2013-07-19 2017-09-27 株式会社コナミデジタルエンタテインメント Operation system, operation control program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002139329A (en) 2000-11-06 2002-05-17 Mazda Motor Corp Vehicular display processing method, vehicular display processing device and computer-readable storage medium
WO2008078790A1 (en) 2006-12-27 2008-07-03 Waro Iwane Cv tag video display device provided with layer generating and selecting functions
US20090135178A1 (en) 2007-11-22 2009-05-28 Toru Aihara Method and system for constructing virtual space
JP2009129183A (en) 2007-11-22 2009-06-11 Internatl Business Mach Corp <Ibm> Image processing method and device for constructing virtual space
WO2013111239A1 (en) 2012-01-26 2013-08-01 パナソニック株式会社 Mobile terminal, television broadcast receiver, and device linkage method
WO2013161319A1 (en) 2012-04-27 2013-10-31 パナソニック株式会社 Content playback method, content playback system, and content filming device
JP2013250470A (en) 2012-06-01 2013-12-12 Nintendo Co Ltd Information processing program, information processing device, information processing system and information processing method
JP2016129579A (en) 2015-01-14 2016-07-21 株式会社コロプラ Interface program and game program
JP2016161893A (en) 2015-03-05 2016-09-05 セイコーエプソン株式会社 Display device, terminal device, and display system

Also Published As

Publication number Publication date
JP2020173718A (en) 2020-10-22
JP2024117801A (en) 2024-08-29
JP7507946B2 (en) 2024-06-28
JP2024001246A (en) 2024-01-09

Similar Documents

Publication Publication Date Title
CN108984604B (en) Site map application and system
AU2018101226A4 (en) Systems, methods, and graphical user interfaces for interacting with augmented and virtual reality environments
US20130321461A1 (en) Method and System for Navigation to Interior View Imagery from Street Level Imagery
US11604580B2 (en) Configuration of application execution spaces and sub-spaces for sharing data on a mobile touch screen device
US9900541B2 (en) Augmented reality remote control
US20150185825A1 (en) Assigning a virtual user interface to a physical object
US20140040949A1 (en) User control interface for interactive digital television
KR102532071B1 (en) Display apparatus, user terminal, control method thereof, computer-readable medium, system thereof
CN105191330A (en) Display apparatus and graphic user interface screen providing method thereof
JP2015090570A (en) Information processor and control method
JP2007124367A (en) Device, method, program and recording medium for information strolling
JP2007299172A (en) Image viewer
US20240265583A1 (en) Image processing device, image providing server, image display method, and image provision method for navigating horizontally or vertically between floor images
CN113892129B (en) Creating virtual parallax for three-dimensional appearance
US20240094864A1 (en) System and method for synchronization of multiple users to interact in a common virtual space
CN112051956A (en) House source interaction method and device
JP6617547B2 (en) Image management system, image management method, and program
US20230008575A1 (en) Relocation of content item to motion picture sequences at multiple devices
JP7373294B2 (en) Image processing device, image providing server, image display method, and image providing method
JP2007180651A (en) Image processing apparatus and image processing program
JPH11174950A (en) Processor and method for information processing, and computer-readable memory
US20240331660A1 (en) Program, terminal control method, terminal, information processing method, and information processing device
US11681427B1 (en) System and method for dynamically grouping and displaying a plurality of content
KR20230079573A (en) Apparatus and method for space tour service based on VR

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7373294

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150