JP7192923B2 - Apparatus, method, program, system - Google Patents

Apparatus, method, program, system Download PDF

Info

Publication number
JP7192923B2
JP7192923B2 JP2021116039A JP2021116039A JP7192923B2 JP 7192923 B2 JP7192923 B2 JP 7192923B2 JP 2021116039 A JP2021116039 A JP 2021116039A JP 2021116039 A JP2021116039 A JP 2021116039A JP 7192923 B2 JP7192923 B2 JP 7192923B2
Authority
JP
Japan
Prior art keywords
image
displayed
content
partial image
panoramic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021116039A
Other languages
Japanese (ja)
Other versions
JP2021170374A (en
Inventor
聖 三井
圭 久志本
皓一 西出
智利 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2021170374A publication Critical patent/JP2021170374A/en
Priority to JP2022196239A priority Critical patent/JP2023027216A/en
Application granted granted Critical
Publication of JP7192923B2 publication Critical patent/JP7192923B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00095Systems or arrangements for the transmission of the picture signal
    • H04N1/00103Systems or arrangements for the transmission of the picture signal specially adapted for radio transmission, e.g. via satellites
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/21Intermediate information storage
    • H04N1/2104Intermediate information storage for one or a few pictures
    • H04N1/2112Intermediate information storage for one or a few pictures using still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3247Data linking a set of images to one another, e.g. sequence, burst or continuous capture mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3278Transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Marketing (AREA)
  • Computer Graphics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、装置、方法、プログラム、及びシステムに関する。
The present invention relates to devices, methods, programs, and systems .

ネットワークを利用した情報提供は主要なマーケティングの1つとなっており、Webページには多くの写真や動画が掲載されるようになった。Webページを閲覧した閲覧者はWebページのテーマや記述を考慮して掲載されている写真や動画を閲覧することで撮像された場所の風景や周囲の状況を把握できるようになっている。例えば、Webページのテーマが観光であれば、閲覧者はWebページに掲載された写真や動画は観光地のものであると考え、観光地の風景や周囲の状況を把握する。 Providing information using networks has become one of the main marketing methods, and many photographs and videos have been posted on Web pages. A viewer who has browsed the web page can grasp the scenery of the place where the image was taken and the surrounding situation by browsing the photos and videos posted in consideration of the theme and description of the web page. For example, if the theme of the web page is tourism, the viewer will think that the photos and videos posted on the web page are of a tourist spot, and will grasp the scenery and surroundings of the tourist spot.

しかしながら、一般的なカメラでは撮像範囲が限られており、閲覧者は写真や動画が撮像された範囲でしか風景や周囲の状況などを把握できない。これに対し、魚眼カメラなどの画角が広いカメラで周囲が撮像されていれば、閲覧者は1枚の画像を閲覧するだけでより広い範囲の風景や周囲の状況を把握することができる(例えば、特許文献1参照。)。特許文献1には、魚眼光学装置を用いて撮像した画像をパノラマ画像に変換するパノラマ画像形成方法に関し、パノラマ画像の一部と撮像位置をマップ上に点で表示するパノラマ画像形成方法が開示されている。 However, a general camera has a limited imaging range, and the viewer can grasp the scenery and the surrounding situation only within the range in which the photograph or moving image is captured. On the other hand, if the surroundings are captured by a camera with a wide angle of view, such as a fish-eye camera, the viewer can grasp a wider range of scenery and surrounding conditions just by viewing a single image. (See Patent Document 1, for example). Patent Document 1 discloses a panoramic image forming method for converting an image captured using a fish-eye optical device into a panoramic image, and for displaying a part of the panoramic image and the imaging position as dots on a map. It is

しかしながら、特許文献1に開示されたパノラマ画像形成方法では、1つの魚眼レンズを採用しているため、撮像範囲として未だに制限される部分が多いという問題がある。また、撮像された写真や動画を閲覧者にどのように提供するかが考慮されていないという問題がある。 However, the panorama image forming method disclosed in Patent Document 1 employs a single fisheye lens, so there is a problem that the imaging range is still limited in many areas. In addition, there is a problem that no consideration is given to how to provide the captured photos and moving images to the viewer.

本発明は、上記課題に鑑み、撮像範囲が広い写真や動画を容易に提供できる技術を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide a technique capable of easily providing photographs and moving images with a wide imaging range.

上記課題に鑑み、本発明は、パノラマ画像と、前記パノラマ画像が撮影された際の撮影位置を含む図と、を記憶する記憶部を有し、要求に基づいて、前記記憶部から該当するパノラマ画像の一部である一部画像と、前記該当するパノラマ画像の撮影位置を含む図と、を読み出し、前記読み出された図には、前記該当するパノラマ画像が撮影された位置を示す図形が含まれており、前記読み出された一部画像が表示される際の前記一部画像の表示範囲に対応する図形が、前記読み出された図に表示され、前記読み出された図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形を、前記読み出された一部画像に表示することを特徴とする。
In view of the above problems, the present invention has a storage unit that stores a panoramic image and a view including the shooting position when the panoramic image was shot, and based on a request, the corresponding panoramic image is retrieved from the storage unit. A partial image, which is a part of the image, and a diagram including the photographing position of the corresponding panoramic image are read, and in the read diagram, a figure indicating the photographing position of the corresponding panoramic image is displayed. are displayed in the read-out drawing, and a figure corresponding to the display range of the partial image when the read-out partial image is displayed is displayed in the read-out drawing ; When the panorama image of the above includes a plurality of figures indicating the photographing positions when the panorama image of the It is characterized in that it is displayed on the read partial image .

撮像範囲が広い写真や動画を容易に提供できる技術を提供することができる。 It is possible to provide a technology that can easily provide photographs and moving images with a wide imaging range.

撮像者が行う動作を説明する図の一例である。It is an example of the figure explaining the operation|movement which a photographer performs. コンテンツ利用企業によるWebページに対するコンテンツの設定方法を説明する図の一例である。FIG. 10 is an example of a diagram for explaining a content setting method for a web page by a content user company; コンテンツ利用企業のWebページにアクセスしたエンドユーザが閲覧するコンテンツの一例を示す図である。FIG. 2 is a diagram showing an example of content browsed by an end user who has accessed a web page of a content user company; Webサービスシステムのシステム構成図の一例である。1 is an example of a system configuration diagram of a web service system; FIG. 撮像装置の外観について説明する図の一例である。It is an example of the figure explaining the external appearance of an imaging device. 撮像装置のハードウェア構成図の一例である。It is an example of the hardware block diagram of an imaging device. 携帯端末のハードウェア構成図の一例である。1 is an example of a hardware configuration diagram of a mobile terminal; FIG. コンテンツ作成サーバのハードウェア構成図の一例である。1 is an example of a hardware configuration diagram of a content creation server; FIG. 撮像装置の撮像範囲を模式的に示す図の一例である。It is an example of the figure which shows the imaging range of an imaging device typically. 撮像装置が撮像する画像を説明する図の一例である。It is an example of the figure explaining the image which an imaging device images. Webサービスシステムの機能ブロック図の一例である。1 is an example of a functional block diagram of a web service system; FIG. WebページへのURIの埋め込みを説明する図の一例である。FIG. 10 is an example of a diagram illustrating embedding of a URI in a web page; コンテンツ提供部による一部画像の送信を模式的に説明する図の一例である。FIG. 10 is an example of a diagram schematically illustrating transmission of a partial image by a content providing unit; マップへの全天球画像の埋め込みを模式的に説明する図の一例である。FIG. 4 is an example of a diagram schematically explaining embedding of an omnidirectional image in a map; 撮像装置が携帯端末に画像を送信する手順を示すシーケンス図の一例である。FIG. 10 is an example of a sequence diagram showing a procedure for an imaging device to transmit an image to a mobile terminal; 携帯端末が画像をコンテンツ作成サーバに送信する手順を示すシーケンス図の一例である。FIG. 10 is an example of a sequence diagram showing a procedure for a mobile terminal to transmit an image to a content creation server; コンテンツとWebページの登録の手順を示すシーケンス図の一例である。FIG. 10 is an example of a sequence diagram showing a procedure for registering content and web pages; ユーザPCがコンテンツを表示させる手順を示すシーケンス図の一例である。FIG. 10 is an example of a sequence diagram showing a procedure for a user PC to display content; コンテンツ作成サーバの機能ブロック図の一例である(実施例2)。It is an example of a functional block diagram of a content creation server (Example 2). コンテンツ作成サーバがコンテンツを作成する手順を示すシーケンス図の一例である。FIG. 10 is an example of a sequence diagram showing a procedure for a content creation server to create content; プライバシー保護のための画像処理を説明する図の一例である。It is an example of the figure explaining the image processing for privacy protection. コンテンツ作成サーバの機能ブロック図の一例である(実施例3)。It is an example of a functional block diagram of a content creation server (Example 3). 建築物の地図上の位置の特定方法を説明する図の一例である。It is an example of the figure explaining the identification method of the position of a building on a map. 被写体情報埋め込み部が全天球画像に被写体情報を埋め込む手順を示すフローチャート図の一例である。FIG. 10 is an example of a flowchart showing a procedure for embedding subject information in an omnidirectional image by a subject information embedding unit; エンドユーザが建築物をマウスカーソルでクリックした場合に表示される被写体情報の一例を示す図である。FIG. 10 is a diagram showing an example of subject information displayed when an end user clicks a building with a mouse cursor; ユーザPCで表示されるコンテンツの一例を示す図である。It is a figure which shows an example of the content displayed on a user PC.

以下、本発明を実施するための形態について図面を参照しながら説明する。 EMBODIMENT OF THE INVENTION Hereinafter, it demonstrates, referring drawings for the form for implementing this invention.

<本実施形態のWebサービスの概略>
まず、図1~3を用いて、本実施形態のWebサービスの概略について説明する。
図1は、撮像者が行う動作を説明する図の一例である。
(1)撮像者8は周囲360度(以下、周囲全方位という)の撮像が可能な撮像装置11を把持して歩行する。撮像装置11は定期的又は一定距離ごとに周囲を撮像するように設定されており、撮像した画像(後述する全天球画像)を撮像位置と対応付けて蓄積する。したがって、撮像者8が歩行したルートに沿って画像が得られる。
(2)目的の場所まで歩行しルート上の撮像が終了すると、撮像者8はアクセスポイント9を介して複数の画像をコンテンツ作成サーバ12に送信する。
(3)コンテンツ作成サーバ12は、撮像者8が移動したルートを含むマップと画像を用いたコンテンツを作成してコンテンツ提供サーバ13に登録する。なお、後述する実施例では、撮像装置11から画像を受信した携帯端末がコンテンツ提供サーバ13に画像を送信する。
<Outline of the Web service of this embodiment>
First, the outline of the Web service of this embodiment will be described with reference to FIGS. 1 to 3. FIG.
FIG. 1 is an example of a diagram illustrating an operation performed by a photographer.
(1) The photographer 8 walks while holding the imaging device 11 capable of imaging 360 degrees around (hereinafter referred to as omnidirectional). The imaging device 11 is set to capture an image of the surroundings periodically or at fixed distance intervals, and accumulates captured images (spherical images, which will be described later) in association with imaging positions. Therefore, an image is obtained along the route walked by the photographer 8 .
(2) When the photographer 8 walks to the target location and finishes capturing images on the route, the photographer 8 transmits a plurality of images to the content creation server 12 via the access point 9 .
(3) The content creation server 12 creates content using a map including the route traveled by the photographer 8 and an image, and registers the content in the content providing server 13 . It should be noted that in an embodiment described later, the portable terminal that has received the image from the imaging device 11 transmits the image to the content providing server 13 .

図2は、コンテンツ利用企業によるWebページに対するコンテンツの設定方法を説明する図の一例である。
(4)コンテンツ作成サーバ12は後述するコンテンツを作成して登録し、コンテンツのURI(Uniform Resource Identifier)を、予め登録されているコンテンツ利用企業の担当者7に送信する。なお、(4)の点線に示すように画像の送信元の撮像者8に送信してもよい。
(5)コンテンツ利用企業の担当者7はコンテンツ利用企業PC(Personal Computer)15を操作して、自社のWebページ(例えばホームページ)のHTMLデータにコンテンツのURIを貼り付ける(例えば、コピー&ペーストする)。これにより、コンテンツ利用企業は撮像者8が歩行したルートに沿って撮像された周囲の画像を自社のWebページにリンクさせることができる。
(6)コンテンツ利用企業の担当者7は自社のWebサーバ14にWebページを登録する(送信する)。これにより、エンドユーザ6はコンテンツとリンクされたコンテンツ利用企業のWebページを閲覧できる。
(7)コンテンツ利用企業のWebページを閲覧するエンドユーザ6は、ユーザPC16を操作してコンテンツを表示させる。
FIG. 2 is an example of a diagram illustrating a method of setting content for a web page by a content user company.
(4) The content creation server 12 creates and registers content, which will be described later, and transmits the URI (Uniform Resource Identifier) of the content to the pre-registered person in charge 7 of the content user company. Note that the image may be transmitted to the imager 8 who is the transmission source of the image, as indicated by the dotted line in (4).
(5) The person in charge 7 of the content-using company operates the PC (Personal Computer) 15 of the content-using company and pastes the URI of the content into the HTML data of the company's web page (for example, home page) (for example, by copying and pasting ). As a result, the content user company can link the surrounding images captured along the route taken by the photographer 8 to their own web page.
(6) The person in charge 7 of the content-using company registers (transmits) a web page to the web server 14 of the company. As a result, the end user 6 can view the web page of the content user company linked to the content.
(7) The end user 6 browsing the Web page of the content user company operates the user PC 16 to display the content.

図3は、コンテンツ利用企業のWebページにアクセスしたエンドユーザ6が閲覧するコンテンツの一例を示す図である。コンテンツとしては主に周囲の画像61とマップ62が表示される。画像61は、撮像者8が撮像のために歩行したルート上の各撮像位置における周囲全方位の画像(全天球画像)である。なお、全天球画像は全天球パノラマ画像、全方位画像、周囲360度画像などと呼ばれてもよい。画像のうち一度に表示される範囲は全天球画像の一部なので、エンドユーザ6はユーザPC16を操作して全方位の画像を閲覧できる。また、マップ62には撮像者8が歩行したルート63が強調して表示される。ルート63には撮像位置64が明示されるので、エンドユーザ6はどの撮像位置64の画像を閲覧しているかを把握できる。 FIG. 3 is a diagram showing an example of content browsed by the end user 6 who has accessed the web page of the content user company. As content, a surrounding image 61 and a map 62 are mainly displayed. An image 61 is an omnidirectional image (omnidirectional image) at each imaging position on the route that the photographer 8 walked for imaging. Note that the omnidirectional image may also be called an omnidirectional panorama image, an omnidirectional image, a surrounding 360-degree image, or the like. Since the range of the image displayed at one time is a part of the omnidirectional image, the end user 6 can operate the user PC 16 to browse the omnidirectional image. In addition, a route 63 along which the photographer 8 has walked is highlighted on the map 62 . Since the imaging position 64 is specified in the route 63, the end user 6 can grasp the image of which imaging position 64 is viewed.

したがって、エンドユーザ6は上記のルート63を実際に歩行しているかのような疑似体験をすることができる。また、マップ62にはルート63が強調して表示され、現在表示されている画像61の撮像位置64、これから表示される画像の撮像位置64をエンドユーザ6が一目で把握できるようになっている。また、エンドユーザ6はルート上の任意の位置の画像を表示させることもできる。 Therefore, the end user 6 can have a simulated experience as if he were actually walking the route 63 described above. Further, the route 63 is highlighted on the map 62 so that the end user 6 can grasp at a glance the imaging position 64 of the currently displayed image 61 and the imaging position 64 of the image to be displayed from now on. . Also, the end user 6 can display an image of any position on the route.

このように本実施形態のWebサービスシステム100は、誰もが簡単に周囲全方位の空間を表現した臨場感あるコンテンツを作成して公開できる。エンドユーザ6に対し全方位のパノラマ画像を再生させてルート上を周遊している疑似体験を提供できる。 As described above, the Web service system 100 of the present embodiment enables anyone to easily create and publish realistic content that expresses the space in all directions. It is possible to provide the end user 6 with a simulated experience of traveling around the route by reproducing an omnidirectional panorama image.

<用語について>
・コンテンツ利用企業とは、コンテンツを用いてルートを紹介したい法人、自然人、団体又は個人等をいう。営利を目的とした企業である必要はない。
・Webサービスシステム100はコンテンツ利用企業に対し、コンテンツの作成及び公開を支援するサービスを提供する。
・ルート(経路又は経路情報の一例)としては、観光地の観光コース、登山やハイキングの歩行コース、マラソンの走行コース、駅からマンションなどの目的地までの行き方を案内するコース、テーマパーク内のアトラクションや施設への行き方を紹介するコース、ショッピングモールやデパート内の店舗を紹介するコース、などがある。しかしながら、人が歩行できる場所であれば本実施形態のルートとなりうる。
・エンドユーザ6は、コンテンツ利用企業が運営するWebページ(及びWebアプリ)を介してコンテンツを閲覧する閲覧者である。
・コンテンツとは、少なくとも複数の周囲全方位の画像を有し、これにマップ62及びルート63が含まれていてもよい。また、その他、撮像位置で集音された音声データを含んでいてもよい。
・リンク情報は、コンテンツをユーザPC16などの任意の情報処理端末がネットワークに接続されたリソースから取得するための情報である。本実施例ではリンク情報の一例としてURIを使用して説明する。URIはネットワーク上のリソースを識別するための情報であり、ネットワーク上のリソースの場所を特定する情報をURLという。URIの変わりにURL(Uniform Resource Locator)が用いられてもよい。
・公開情報は、ネットワークにおいて公開されておりユーザPC16などがアクセスできる情報をいう。本実施例ではWebページと称して説明する。Webページはインターネット上で公開されている文書である。Webページは予め用意されていてもWebアプリが動的に生成したものでもよい。WebページにはURIが埋め込まれる場合がある。
<Terms>
・A content-using company is a corporation, natural person, group, or individual who wants to introduce a route using content. It doesn't have to be a for-profit company.
- The Web service system 100 provides a content user company with a service that supports creation and publication of content.
・ Routes (an example of routes or route information) include sightseeing courses in tourist spots, walking courses for mountain climbing and hiking, running courses for marathons, courses that provide directions from stations to destinations such as apartments, and routes within theme parks. There are courses that introduce how to get to attractions and facilities, courses that introduce shops in shopping malls and department stores, and so on. However, any place where people can walk can be the route of the present embodiment.
- The end user 6 is a viewer who browses content via a web page (and web application) operated by a content user company.
- The content has at least a plurality of omnidirectional images, which may include the map 62 and the route 63 . In addition, the audio data collected at the imaging position may also be included.
- The link information is information for acquiring content from a resource connected to a network by an arbitrary information processing terminal such as the user PC 16 . In this embodiment, URI is used as an example of link information. A URI is information for identifying a resource on a network, and information for specifying the location of a resource on the network is called a URL. A URL (Uniform Resource Locator) may be used instead of the URI.
- Public information is information that is open to the public on the network and accessible by the user PC 16 or the like. In the present embodiment, it will be described as a web page. A web page is a document published on the Internet. The web page may be prepared in advance or dynamically generated by a web application. A URI may be embedded in a web page.

<構成例>
図4は、Webサービスシステム100のシステム構成図の一例を示す。Webサービスシステム100は、ネットワーク18を介して通信可能な、コンテンツ作成サーバ12、コンテンツ提供サーバ13、Webサーバ14、撮像装置11、携帯端末17、コンテンツ利用企業PC15、及び、ユーザPC16を有している。
<Configuration example>
FIG. 4 shows an example of a system configuration diagram of the web service system 100. As shown in FIG. The web service system 100 includes a content creation server 12, a content providing server 13, a web server 14, an imaging device 11, a mobile terminal 17, a content user PC 15, and a user PC 16, which are communicable via a network 18. there is

ネットワーク18はLAN,WAN又はインターネットなどで構築される。主に有線で構築されるが一部又は全てを無線で構築されてもよい。また、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、CDMA又はLTE、などの携帯電話網を含んでいてもよい。 The network 18 is constructed by LAN, WAN, Internet, or the like. Although it is mainly constructed with wires, it may be constructed partially or entirely wirelessly. It may also include a mobile phone network such as PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications), CDMA or LTE.

上記のように、コンテンツ作成サーバ12は画像が用いられたコンテンツを作成するサーバであり、コンテンツ提供サーバ13はコンテンツをエンドユーザ6に提供するサーバである。Webサーバ14はコンテンツ利用企業が運営するサーバでありコンテンツ利用企業のWebページが登録されている。このWebページにはコンテンツ利用企業が公開する情報がHTMLやJavaScript(登録商標)などで記述されている。 As described above, the content creation server 12 is a server that creates content using images, and the content providing server 13 is a server that provides content to the end user 6 . The Web server 14 is a server operated by a content user company, and the Web page of the content user company is registered. In this Web page, information disclosed by the company using the content is described in HTML, JavaScript (registered trademark), or the like.

撮像装置11は、2つの撮像素子が搭載されることで周囲の360度を撮像可能な全方位撮像装置である。必ずしも全方位の撮像専用の撮像装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けの全方位の撮像ユニットを取り付けることで、実質的に撮像装置11と同じ機能を有するようにしてもよい。 The imaging device 11 is an omnidirectional imaging device capable of imaging 360 degrees around by mounting two imaging elements. It does not necessarily have to be an imaging device dedicated to omnidirectional imaging, and by attaching an omnidirectional imaging unit to an ordinary digital camera, smartphone, or the like, it may have substantially the same functions as the imaging device 11. good.

撮像装置11は携帯端末17と無線又は有線で通信可能である。これは、撮像装置11が有さない機能を携帯端末17が補助するためである。すなわち、撮像装置11が位置情報の検出機能(例えばGPS受信機能)を有していない場合、携帯端末17が撮像位置を検出する。本実施形態では、撮像装置11が撮像した画像に携帯端末17が撮像位置を付加してコンテンツ作成サーバ12に送信する。撮像装置11が位置情報の検出機能を有していれば携帯端末17はなくてもよい。したがって、撮像装置11と携帯端末17は1つの装置が提供してもよい。 The imaging device 11 can communicate with the portable terminal 17 wirelessly or by wire. This is because the portable terminal 17 assists the functions that the imaging device 11 does not have. That is, when the imaging device 11 does not have a position information detection function (for example, a GPS reception function), the portable terminal 17 detects the imaging position. In the present embodiment, the mobile terminal 17 adds the imaging position to the image captured by the imaging device 11 and transmits the image to the content creation server 12 . If the imaging device 11 has a position information detection function, the mobile terminal 17 may be omitted. Therefore, the imaging device 11 and the mobile terminal 17 may be provided by one device.

なお、携帯端末17は画像を表示するためのディスプレイを有しており、撮像者8が画像を確認する際にも使用されるが、画像の確認は必須ではない。 Note that the portable terminal 17 has a display for displaying images, and is also used when the photographer 8 confirms the images, but confirmation of the images is not essential.

携帯端末17は、例えばスマートフォン、PDA(Personal Digital Assistant)、タブレット型端末、携帯電話、ウェアラブルPC又は汎用PCなどであるが、これらには限定されない。 The mobile terminal 17 is, for example, a smart phone, a PDA (Personal Digital Assistant), a tablet terminal, a mobile phone, a wearable PC, or a general-purpose PC, but is not limited to these.

コンテンツ利用企業PC15は、コンテンツ利用企業が公開するWebページにコンテンツをリンクさせる際に、コンテンツ利用企業の担当者7が操作するPCである。コンテンツ利用企業PC15は、PCの他、スマートフォン、PDA、タブレット型端末、携帯電話又はウェアラブルPCなどでもよい。 The content user company PC 15 is a PC operated by the person in charge 7 of the content user company when linking the content to the Web page published by the content user company. The content user company PC 15 may be a smart phone, a PDA, a tablet terminal, a mobile phone, a wearable PC, or the like, in addition to the PC.

ユーザPC16はエンドユーザ6が操作するPCであり、コンテンツ利用企業が提供するWebページを表示する。具体的な装置としてはコンテンツ利用企業PC15と同様でよい。ユーザPC16は情報処理端末の一例である。 The user PC 16 is a PC operated by the end user 6, and displays a web page provided by the content user company. A specific device may be the same as the content user company PC 15 . The user PC 16 is an example of an information processing terminal.

なお、図4では、説明の便宜上、コンテンツ作成サーバ12、コンテンツ提供サーバ13及びWebサーバ14を別の装置として示したが、これら3つのサーバの機能は1つの装置が提供してもよい。また、これら3つのサーバの機能のうち任意の2つのサーバの機能を1つの装置が提供してもよい。 Although FIG. 4 shows the content creation server 12, the content provision server 13, and the web server 14 as separate devices for convenience of explanation, one device may provide the functions of these three servers. Also, one device may provide the functions of any two of these three server functions.

また、コンテンツ作成サーバ12、コンテンツ提供サーバ13及びWebサーバ14のうち1つ以上のサーバの機能は、クラウドコンピューティングが用いられたクラウドサービスとして提供されてもよい。クラウドコンピューティングは、一例として、複数のサーバがL1~L3スイッチで接続されており、各サーバと1つ以上のストレージがファイバーチャネルやiSCSIなどで接続されている。クラウドコンピューティングでは、負荷に応じて各サーバに仮想化されたサーバが追加又は開放され、物理的な構成が動的に変更される。 Also, the functions of one or more of the content creation server 12, the content provision server 13, and the web server 14 may be provided as a cloud service using cloud computing. In cloud computing, for example, a plurality of servers are connected by L1 to L3 switches, and each server and one or more storages are connected by Fiber Channel, iSCSI, or the like. In cloud computing, a virtualized server is added or released to each server according to the load, and the physical configuration is dynamically changed.

このように、図示されたWebサービスシステム100の構成は一例であり、Webサービスシステム100は、以下の本実施形態で説明される処理を行うことが可能な情報処理装置としての機能を有していればよい。 Thus, the illustrated configuration of the web service system 100 is an example, and the web service system 100 has a function as an information processing device capable of performing the processing described in the present embodiment below. All you have to do is

<<撮像装置11について>>
図5を用いて撮像装置11の外観について説明する。図5(a)は撮像装置11の左側面図の一例であり、図5(b)は撮像装置11の正面図の一例であり、図5(c)は撮像装置11の平面図の一例である。
<<About the imaging device 11>>
The appearance of the imaging device 11 will be described with reference to FIG. 5A is an example of a left side view of the imaging device 11, FIG. 5B is an example of a front view of the imaging device 11, and FIG. 5C is an example of a plan view of the imaging device 11. FIG. be.

図5(a)に示されているように、撮像装置11は、人間が片手で把持できる縦長の筐体を有し、上部に互いに背中合わせになった2つの撮像素子103a、103bを有している。撮像素子103a,103bはそれぞれ180度の撮像範囲を有しており、2つの撮像素子103a、103bで周囲全方位の範囲を撮像する。撮像装置11の正面側には、シャッターボタン等の操作部115が設けられている。 As shown in FIG. 5(a), the imaging device 11 has a vertically elongated housing that can be held by a person with one hand, and has two imaging elements 103a and 103b placed back-to-back on the top. there is The imaging elements 103a and 103b each have an imaging range of 180 degrees, and the two imaging elements 103a and 103b capture an omnidirectional range. An operation unit 115 such as a shutter button is provided on the front side of the imaging device 11 .

図6は、撮像装置11のハードウェア構成図の一例である。撮像装置11は、2つの撮像素子が搭載された全方位撮像装置である。ただし、撮像素子は3つ以上でもよい。撮像装置11は、撮像ユニット101、画像処理ユニット104、撮像制御ユニット105、CPU(Central Processing Unit)111、ROM(Read Only Memory)112、SRAM(Static Random Access Memory)113、DRAM(Dynamic Random Access Memory)114、操作部115、ネットワークI/F116、通信部117、アンテナ117a、及び、電子コンパス118を有している。 FIG. 6 is an example of a hardware configuration diagram of the imaging device 11. As shown in FIG. The imaging device 11 is an omnidirectional imaging device equipped with two imaging elements. However, the number of imaging elements may be three or more. The imaging device 11 includes an imaging unit 101, an image processing unit 104, an imaging control unit 105, a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, an SRAM (Static Random Access Memory) 113, a DRAM (Dynamic Random Access Memory). ) 114 , an operation unit 115 , a network I/F 116 , a communication unit 117 , an antenna 117 a and an electronic compass 118 .

撮像ユニット101は、各々、半球画像を結像するための180°以上の画角を有する広角レンズ(いわゆる魚眼レンズ)102a,102bと、各広角レンズに対応させて設けられている2つの撮像素子103a,103bを備えている。撮像素子103a,103bは、画像センサ、タイミング生成回路、及び、レジスタ群等を有している。画像センサは、魚眼レンズにより結像された光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどである。タイミング生成回路はこの画像センサの水平又は垂直同期信号や画素クロックなどを生成する。レジスタ群には、撮像素子の動作に必要な種々のコマンドやパラメータなどが設定される。 The imaging unit 101 includes wide-angle lenses (so-called fisheye lenses) 102a and 102b each having an angle of view of 180° or more for forming a hemispherical image, and two imaging elements 103a provided corresponding to each wide-angle lens. , 103b. The imaging devices 103a and 103b have an image sensor, a timing generation circuit, a group of registers, and the like. The image sensor is a CMOS (Complementary Metal Oxide Semiconductor) sensor, a CCD (Charge Coupled Device) sensor, or the like, which converts an optical image formed by a fisheye lens into image data of an electrical signal and outputs the image data. A timing generation circuit generates horizontal or vertical synchronizing signals, pixel clocks, and the like for this image sensor. Various commands and parameters necessary for the operation of the image sensor are set in the register group.

撮像素子103a,103bは、各々、画像処理ユニット104とパラレルI/Fバスで接続されている。撮像素子103a,103bは、撮像制御ユニット105とシリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット104及び撮像制御ユニット105は、バス110を介してCPU111等と接続されている。 The imaging devices 103a and 103b are each connected to the image processing unit 104 via a parallel I/F bus. The imaging devices 103a and 103b are connected to the imaging control unit 105 via a serial I/F bus (such as an I2C bus). The image processing unit 104 and imaging control unit 105 are connected to the CPU 111 and the like via a bus 110 .

画像処理ユニット104は、撮像素子103a,103bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、図10(c)に示されているようなメルカトル画像の画像データを作成する。 The image processing unit 104 fetches the image data output from the imaging elements 103a and 103b through the parallel I/F bus, performs predetermined processing on each image data, and synthesizes these image data. , to create image data of a Mercator image as shown in FIG. 10(c).

撮像制御ユニット105は、I2Cバスを利用して、撮像素子103a,103bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU111から受け取る。また、該撮像制御ユニット105は、同じくI2Cバスを利用して、撮像素子103a,103bのレジスタ群のステータスデータ等を取り込み、CPU111に送る。 The imaging control unit 105 uses the I2C bus to set commands and the like in registers of the imaging elements 103a and 103b. Necessary commands and the like are received from the CPU 111 . The imaging control unit 105 also uses the I2C bus to take in status data and the like of the registers of the imaging elements 103 a and 103 b and send them to the CPU 111 .

また、撮像制御ユニット105は、操作部115のシャッターボタンが押下されたタイミングで、撮像素子103a,103bに画像データの出力を指示する。撮像装置11によっては、表示部によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子103a,103bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the imaging control unit 105 instructs the imaging devices 103a and 103b to output image data at the timing when the shutter button of the operation unit 115 is pressed. Depending on the imaging device 11, the display unit may have a preview display function or a function corresponding to moving image display. In this case, the image data is output continuously from the imaging devices 103a and 103b at a predetermined frame rate (frames/minute).

また、撮像制御ユニット105は、CPU111と協働して撮像素子103a,103bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、撮像装置11には表示部が設けられていないが、表示部を設けてもよい。 The imaging control unit 105 also functions as synchronization control means for synchronizing the output timing of the image data of the imaging elements 103a and 103b in cooperation with the CPU 111. FIG. In this embodiment, the imaging device 11 is not provided with a display unit, but may be provided with a display unit.

CPU111は、撮像装置11の全体の動作を制御すると共に必要な処理を実行する。ROM112は、CPU111のための種々のプログラムを記憶している。SRAM113及びDRAM114はワークメモリであり、CPU111で実行するプログラムや処理途中のデータ等を記憶する。DRAM114は、画像処理ユニット104での処理途中の画像データや処理済みのメルカトル画像の画像データを記憶する。 The CPU 111 controls the overall operation of the imaging device 11 and executes necessary processing. ROM 112 stores various programs for CPU 111 . The SRAM 113 and DRAM 114 are work memories, and store programs to be executed by the CPU 111, data during processing, and the like. The DRAM 114 stores image data being processed in the image processing unit 104 and image data of processed Mercator images.

操作部115は、種々の操作ボタンや電源スイッチ、シャッターボタン、表示と操作の機能を兼ねたタッチパネルなどの総称である。撮像者8は操作ボタンを操作することで、種々の撮像モードや撮像条件などを入力する。 The operation unit 115 is a general term for various operation buttons, a power switch, a shutter button, a touch panel having both display and operation functions, and the like. The photographer 8 inputs various imaging modes, imaging conditions, and the like by operating operation buttons.

ネットワークI/F116は例えばイーサネット(登録商標)カードなどネットワーク18に接続するためのインタフェースである。また、ネットワークI/F116は、USBメモリやSDカード等の外付けの記録媒体のインタフェースとして用いられてもよい。DRAM114に記憶されたメルカトル画像のデータは、ネットワークI/F116から記録媒体に記憶されることもできる。 A network I/F 116 is an interface for connecting to the network 18 such as an Ethernet (registered trademark) card. Also, the network I/F 116 may be used as an interface for an external recording medium such as a USB memory or an SD card. The Mercator image data stored in the DRAM 114 can also be stored in a recording medium from the network I/F 116 .

通信部117は、アンテナ117aを介してネットワーク18に接続するためのネットワークインタフェースである。例えば、無線LANの通信装置、BlueTooth(登録商標)の通信チップ、NFC(Near Field Communication)などであるがこれらに限定されない。本実施形態では、DRAM114に記憶されたメルカトル画像のデータは、通信部117を介して携帯端末17に送信される。 The communication unit 117 is a network interface for connecting to the network 18 via the antenna 117a. Examples include, but are not limited to, a wireless LAN communication device, a BlueTooth (registered trademark) communication chip, and NFC (Near Field Communication). In this embodiment, the Mercator image data stored in the DRAM 114 is transmitted to the mobile terminal 17 via the communication unit 117 .

電子コンパス118は、地球の磁気から撮像装置11の方位及び傾き(Roll回転角)を算出し、方位・傾き情報を出力する。この方位・傾き情報はExifというメタデータのフォーマットに従って、画像に添付される。方位・傾き情報は画像の画像補正等の画像処理に利用される。なお、Exifには、画像の撮像日時、画像データのサムネイル、及び、画像データのデータ容量等も含まれている。 The electronic compass 118 calculates the azimuth and tilt (Roll rotation angle) of the imaging device 11 from the magnetism of the earth, and outputs the azimuth and tilt information. This azimuth/tilt information is attached to the image according to a metadata format called Exif. The azimuth/tilt information is used for image processing such as image correction of an image. Note that Exif also includes the date and time of image capture, the thumbnail of image data, the data capacity of image data, and the like.

<<携帯端末17のハードウェア構成について>>
図7は、携帯端末17のハードウェア構成図の一例を示す。携帯端末17は、携帯端末全体の動作を制御するCPU201、基本入出力プログラムを記憶したROM202、CPU201のワークエリアとして使用されるRAM203、を有する。また、CPU201の制御にしたがってデータの読み出し又は書き込みを行うEEPROM(Electrically Erasable and Programmable ROM)204、CPU201の制御に従って被写体を撮像し画像データを得る撮像素子としてのCMOSセンサ205を有する。また、地磁気を検知する電子磁気コンパスとしての機能やジャイロセンサ・加速度センサ等の機能を備えた加速度・方位センサ206、フラッシュメモリ等の記録メディア207に対するデータの読み出し又は書き込み(記憶)を制御するメディアドライブ208を備えている。そして、メディアドライブ208の制御に従って、既に記録されていたデータが読み出され、又は新たにデータが書き込まれて記憶する記録メディア207が着脱自在な構成となっている。
<<Regarding the hardware configuration of the mobile terminal 17>>
FIG. 7 shows an example of a hardware configuration diagram of the mobile terminal 17. As shown in FIG. The mobile terminal 17 has a CPU 201 that controls the overall operation of the mobile terminal, a ROM 202 that stores basic input/output programs, and a RAM 203 that is used as a work area for the CPU 201 . It also has an EEPROM (Electrically Erasable and Programmable ROM) 204 that reads or writes data under the control of the CPU 201, and a CMOS sensor 205 as an image sensor that captures an object and obtains image data under the control of the CPU 201. In addition, an acceleration/azimuth sensor 206 having a function as an electronic magnetic compass for detecting geomagnetism, a function as a gyro sensor, an acceleration sensor, etc., a medium for controlling reading or writing (storage) of data to a recording medium 207 such as a flash memory. A drive 208 is provided. Under the control of the media drive 208, a recording medium 207 is detachably attached to which previously recorded data is read or new data is written and stored.

なお、EEPROM204には、CPU201が実行するオペレーティングシステム(OS)、その他のプログラム、及び、種々データが記憶されている。また、CMOSセンサ205の代わりにCCDセンサを用いてもよい。 The EEPROM 204 stores an operating system (OS) executed by the CPU 201, other programs, and various data. Also, a CCD sensor may be used instead of the CMOS sensor 205 .

携帯端末17は、音声を音声信号に変換する音声入力部211、音声信号を音声に変換する音声出力部212、アンテナ213a、このアンテナ213aを利用して無線通信信号により、最寄のアクセスポイント9と通信を行う通信部213、を有する。また、GPS(Global Positioning Systems)衛星又は屋内GPSとしてのIMES(Indoor MEssaging System)によって撮像装置11の位置情報(緯度、経度、および高度)を含んだGPS信号を受信するGPS受信部214、を有する。また、被写体の画像や各種アイコン等を表示する液晶や有機ELなどのディスプレイ215、このディスプレイ215上と一体に重畳され指やタッチペン等によるタッチによってディスプレイ215上におけるタッチ位置を検出するタッチパネル216、及び、上記各部を電気的に接続するためのアドレスバスやデータバス等のバスライン210を備えている。 The mobile terminal 17 includes an audio input unit 211 that converts audio into an audio signal, an audio output unit 212 that converts the audio signal into audio, an antenna 213a, and a wireless communication signal using the antenna 213a. and a communication unit 213 that communicates with. It also has a GPS receiver 214 that receives a GPS signal containing position information (latitude, longitude, and altitude) of the imaging device 11 from a GPS (Global Positioning Systems) satellite or IMES (Indoor Messaging System) as an indoor GPS. . Also, a display 215 such as a liquid crystal or organic EL that displays an image of a subject and various icons, etc., a touch panel 216 that is superimposed on the display 215 and detects a touch position on the display 215 by touching with a finger, a touch pen, or the like, and , and a bus line 210 such as an address bus and a data bus for electrically connecting the above sections.

なお、音声入力部211は、音声を入力するマイクが含まれ、音声出力部212には、音声を出力するスピーカが含まれている。これにより、撮像時の音声データを取得できる。 The audio input unit 211 includes a microphone for inputting audio, and the audio output unit 212 includes a speaker for outputting audio. This makes it possible to acquire audio data at the time of imaging.

<<コンテンツ作成サーバ12、コンテンツ提供サーバ13、Webサーバ14、コンテンツ利用企業PC15、ユーザPC16のハードウェア構成について>>
図8は、コンテンツ作成サーバ12のハードウェア構成図の一例である。なお、図示するコンテンツ作成サーバ12のハードウェア構成は、1つの筐体に収納されていたりひとまとまりの装置として備えられていたりする必要はなく、コンテンツ作成サーバ12が備えていることが好ましいハード的な要素を示す。
<<Regarding the hardware configuration of the content creation server 12, the content provision server 13, the Web server 14, the content user PC 15, and the user PC 16>>
FIG. 8 is an example of a hardware configuration diagram of the content creation server 12. As shown in FIG. It should be noted that the hardware configuration of the illustrated content creation server 12 does not need to be housed in one housing or provided as a set of devices. elements.

コンテンツ作成サーバ12は、バス310に接続されたCPU301、ROM302、RAM303、HDD305、ディスプレイ308、ネットワークI/F309、キーボード311、マウス312、メディアドライブ307、及び、光学ドライブ314を有する。CPU301は、HD304に記憶されているプログラム320を実行して、コンテンツ作成サーバ12の全体の動作を制御する。ROM302はIPL等のCPU301の駆動に用いられるプログラムを記憶している。RAM303はCPU301のワークエリアとして使用される。HD304は不揮発性メモリを搭載した記憶装置であり、コンテンツを作成するプログラム320、OS等が記憶されている。 Content creation server 12 has CPU 301 , ROM 302 , RAM 303 , HDD 305 , display 308 , network I/F 309 , keyboard 311 , mouse 312 , media drive 307 and optical drive 314 connected to bus 310 . CPU 301 executes program 320 stored in HD 304 to control the overall operation of content creation server 12 . A ROM 302 stores programs such as IPL that are used to drive the CPU 301 . A RAM 303 is used as a work area for the CPU 301 . The HD 304 is a storage device equipped with a non-volatile memory, and stores a program 320 for creating content, an OS, and the like.

HDD(Hard Disk Drive)305はCPU301の制御にしたがってHD304に対する各種データの読み出し又は書き込みを制御する。ディスプレイ308はカーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F309はLANやインターネットなどのネットワーク18とのインタフェースである。 An HDD (Hard Disk Drive) 305 controls reading and writing of various data to and from the HD 304 under the control of the CPU 301 . A display 308 displays various information such as cursors, menus, windows, characters, or images. A network I/F 309 is an interface with a network 18 such as a LAN or the Internet.

キーボード311及びマウス312は入出力装置であり、キーボード311は文字、数値、各種指示などの入力のための複数のキーを備えこれらからの入力を受け付ける。マウス312はマウスポインターの移動及び各種指示の選択や実行、処理対象の選択などを受け付ける。 A keyboard 311 and a mouse 312 are input/output devices, and the keyboard 311 has a plurality of keys for inputting characters, numerical values, various instructions, etc., and receives inputs from these keys. A mouse 312 accepts movement of the mouse pointer, selection and execution of various instructions, selection of processing targets, and the like.

メディアドライブ307はフラッシュメモリ等のメディア306に対するデータの読み出し又は書き込み(記憶)を制御する。光学ドライブ314は着脱可能な記録媒体の一例としてのCD(Compact Disc)313等に対する各種データの読み出し又は書き込みを制御する。 A media drive 307 controls reading or writing (storage) of data to a medium 306 such as a flash memory. An optical drive 314 controls reading or writing of various data to a CD (Compact Disc) 313 or the like as an example of a removable recording medium.

なお、上記プログラム320は、インストール可能な形式又は実行可能な形式のファイルで、メディア306やCD313等のコンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。あるいは、プログラム320は、任意のサーバ型の情報処理装置からダウンロードされる形態で配布されてもよい。 The program 320 may be recorded in a computer-readable recording medium such as the medium 306 or the CD 313 in an installable format or executable format and distributed. Alternatively, program 320 may be distributed in the form of being downloaded from any server-type information processing apparatus.

なお、コンテンツ提供サーバ13のハードウェア構成はコンテンツ作成サーバ12と同様でよいため図示は省略する。ただし、この場合、HD304にはコンテンツを提供するためのプログラム320が記憶される。また、Webサーバ14のハードウェア構成はコンテンツ作成サーバ12と同様でよいため図示は省略する。ただし、この場合、HD304にはWebページやWebアプリを提供するためのプログラム320やWebページ(Webアプリ)が記憶される。また、コンテンツ利用企業PC15のハードウェア構成はコンテンツ作成サーバ12と同様でよいため図示は省略する。ただし、この場合、HD304にはHTMLデータを編集するためのプログラム320が記憶される。また、ユーザPC16のハードウェア構成はコンテンツ作成サーバ12と同様でよいため図示は省略する。ただし、この場合、HD304にはWebページやコンテンツの閲覧が可能な例えばブラウザソフトウェアがプログラム320として記憶される。 Note that the hardware configuration of the content providing server 13 may be the same as that of the content creating server 12, so illustration thereof is omitted. However, in this case, the HD 304 stores a program 320 for providing content. Also, since the hardware configuration of the Web server 14 may be the same as that of the content creation server 12, illustration thereof is omitted. However, in this case, the HD 304 stores a program 320 for providing web pages and web applications and web pages (web applications). Also, since the hardware configuration of the content user company PC 15 may be the same as that of the content creation server 12, illustration thereof is omitted. However, in this case, the HD 304 stores a program 320 for editing HTML data. Also, since the hardware configuration of the user PC 16 may be the same as that of the content creation server 12, illustration thereof is omitted. However, in this case, the HD 304 stores, for example, browser software as a program 320 that enables browsing of Web pages and contents.

<撮像装置11による撮像例>
次に、図9、10を用いて、撮像装置11により撮像される範囲や画像について説明する。図9は、撮像装置11の撮像範囲を模式的に示す図の一例である。撮像装置11は、周囲全方位の範囲を撮像するため、撮像者自身を撮像するおそれがある。このため、撮像者8を撮像したくない場合、撮像者8は撮像装置11を手に持って腕を伸ばして撮像する。なお、撮像装置11は三脚を取り付けるためのねじ穴を有しているので、棒をねじ穴に差し込んで撮像者8が棒を把持することで、更に高い位置に持ち上げられた撮像装置11に撮像させてもよい。
<Example of imaging by the imaging device 11>
Next, with reference to FIGS. 9 and 10, the range and images captured by the imaging device 11 will be described. FIG. 9 is an example of a diagram schematically showing the imaging range of the imaging device 11. As shown in FIG. Since the image capturing device 11 captures an image of an omnidirectional range, there is a risk of capturing an image of the user himself/herself. Therefore, when the person 8 does not want to take an image, the person 8 holds the imaging device 11 in his/her hand and extends his/her arm to take an image. Since the imaging device 11 has a screw hole for attaching a tripod, by inserting a rod into the screw hole and holding the rod by the photographer 8, the imaging device 11 lifted to a higher position can take an image. You may let

このように撮像することで、撮像素子103a及び撮像素子103bによって、それぞれ撮像者8の周りの被写体が撮像され、2つの半球画像が得られる。 By taking an image in this way, the imaging element 103a and the imaging element 103b respectively capture an image of the subject around the photographer 8, and two hemispherical images are obtained.

図10(a)は撮像装置11で撮像された半球画像(前側)、図10(b)は撮像装置11で撮像された半球画像(後側)、図10(c)はメルカトル図法により表された画像(「メルカトル画像」という)を示した図である。 10A is a hemispherical image (front side) captured by the imaging device 11, FIG. 10B is a hemispherical image (back side) captured by the imaging device 11, and FIG. 10C is represented by Mercator projection. 1 is a diagram showing an image (referred to as a "Mercator image").

図10(a)に示されているように、撮像素子103aによって得られた画像は、魚眼レンズ102aによって湾曲した半球画像(前側)となる。また、図10(b)に示されているように、撮像素子103bによって得られた画像は、魚眼レンズ102bによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、撮像装置11によって合成され、図10(c)のメルカトル画像が作成される。このメルカトル画像から全天球画像が作成される。 As shown in FIG. 10A, the image obtained by the imaging device 103a is a hemispherical image (front side) curved by the fisheye lens 102a. Also, as shown in FIG. 10B, the image obtained by the imaging device 103b is a hemispherical image (rear side) curved by the fisheye lens 102b. Then, the hemispherical image (front side) and the 180-degree inverted hemispherical image (rear side) are combined by the imaging device 11 to create the Mercator image of FIG. 10(c). An omnidirectional image is created from this Mercator image.

図10(d)は全天球画像を模式的に示す図の一例である。例えば、立体球に図10(c)に示されるメルカトル画像を貼り付けることで、全天球画像が作成される。全天球画像は、ある1点から上下左右360度の全方位の被写体が撮像された画像である。全天球画像は静止画でも動画でも作成できる。本実施形態の撮像装置11は1回の撮像で全天球画像を作成できるため、従来のように人間が同一地点で撮像範囲を変えて複数の画像を撮像し、各画像を合成するという処理は不要である。全天球画像を特に区別しない限り単に画像という。 FIG. 10D is an example of a diagram schematically showing an omnidirectional image. For example, an omnidirectional image is created by pasting the Mercator image shown in FIG. 10(c) on the 3D sphere. A omnidirectional image is an image obtained by capturing an object in all directions of 360 degrees vertically and horizontally from a certain point. Spherical images can be created as still images or movies. Since the imaging apparatus 11 of the present embodiment can create an omnidirectional image in one shot, a process in which a person takes a plurality of images at the same point by changing the imaging range and synthesizes the images, as in the conventional art. is unnecessary. Spherical images are simply referred to as images unless otherwise specified.

<Webサービスシステム100の機能>
図11は、Webサービスシステム100の機能ブロック図の一例を示す。以下、順番にWebサービスシステム100が有する機器(撮像装置11、携帯端末17、コンテンツ作成サーバ12、コンテンツ提供サーバ13、Webサーバ14、コンテンツ利用企業PC15、ユーザPC16)の機能について説明する。
<Functions of Web Service System 100>
FIG. 11 shows an example of a functional block diagram of the web service system 100. As shown in FIG. The functions of the devices (imaging device 11, portable terminal 17, content creation server 12, content providing server 13, web server 14, content user PC 15, user PC 16) of the web service system 100 will be described in order below.

撮像装置11は画像作成部31、撮像情報収集部32、及び、送受信部33を有している。撮像装置11が有する各部(画像作成部31、撮像情報収集部32、及び、送受信部33)は、図6に示されている各構成要素のいずれかが、ROM112からSRAM113又はDRAM114上に展開されたプログラムに従ったCPU111からの命令によって動作することで実現される機能、又は機能される手段である。 The imaging device 11 has an image creating section 31 , an imaging information collecting section 32 , and a transmitting/receiving section 33 . Each unit (the image creation unit 31, the imaging information collection unit 32, and the transmission/reception unit 33) of the imaging apparatus 11 has any of the components shown in FIG. It is a function realized by operating according to an instruction from the CPU 111 according to a program, or a means to be functioned.

画像作成部31は、図6に示されているCPU111からの命令、撮像ユニット101、画像処理ユニット104及び撮像制御ユニット105によって実現され、周囲を撮像し、メルカトル画像を全天球画像に変換する。画像作成部31は撮像者8の設定に従って定期的に又は一定距離ごとに画像を作成する。また、撮像者8が操作部115のシャッターボタンを押下したタイミングで画像を作成する。 The image creation unit 31 is realized by commands from the CPU 111, the imaging unit 101, the image processing unit 104, and the imaging control unit 105 shown in FIG. . The image creation unit 31 creates images periodically or at fixed distance intervals according to the settings of the photographer 8 . Also, an image is created at the timing when the photographer 8 presses the shutter button of the operation unit 115 .

撮像情報収集部32は、図6に示されているCPU111からの命令及び電子コンパス118等によって実現され、撮像時の撮像情報を収集する。撮像情報には以下のようなものが含まれる。 The imaging information collection unit 32 is realized by commands from the CPU 111 and the electronic compass 118 shown in FIG. 6, and collects imaging information at the time of imaging. The imaging information includes the following items.

「撮像日時・画像データのサムネイル・方位・ロール角・データサイズ」
画像にはこの撮像情報が例えばExifというファイルフォーマットで添付されている。なお、方位は画像の東西南北を示す情報である。なお、撮像時にロール角がゼロになるように補正されてもよく、この場合はロール角を撮像情報に含めなくてもよい。
"Image date/time, image data thumbnail, azimuth, roll angle, data size"
This imaging information is attached to the image in a file format called Exif, for example. The azimuth is information indicating north, south, east, and west of the image. Note that the roll angle may be corrected to be zero at the time of imaging, and in this case the roll angle may not be included in the imaging information.

送受信部33は、図6に示されているCPU111からの命令及び通信部117等によって実現され、画像を携帯端末17に送信する。送受信部33は、1回の撮像ごとに画像を携帯端末17に送信することが好ましい。これにより、携帯端末17は画像が撮像された時から大きな時間差がないタイミングで撮像位置を検出できる。なお、撮像装置11が撮像位置を検出する機能を有する場合は、1回の撮像ごとに画像を送信しなくてもよい。 The transmission/reception unit 33 is implemented by commands from the CPU 111 and the communication unit 117 shown in FIG. It is preferable that the transmitting/receiving unit 33 transmits an image to the mobile terminal 17 each time an image is captured. As a result, the mobile terminal 17 can detect the imaging position at a timing without a large time difference from when the image is captured. Note that if the imaging device 11 has a function of detecting an imaging position, it is not necessary to transmit an image for each imaging.

<<携帯端末17>>
次に、携帯端末17の機能について説明する。携帯端末17はデータ付き画像送信部34、位置情報取得部35、画像受信部36、操作入力受付部37、及び、記憶・読出部39を有している。携帯端末17が有する各部(データ付き画像送信部34、位置情報取得部35、画像受信部36、操作入力受付部37、及び、記憶・読出部39)は、図7に示されている各構成要素のいずれかが、EEPROM204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能、又は機能される手段である。
<<mobile terminal 17>>
Next, functions of the mobile terminal 17 will be described. The mobile terminal 17 has a data-attached image transmission unit 34 , a position information acquisition unit 35 , an image reception unit 36 , an operation input reception unit 37 , and a storage/readout unit 39 . Each unit of the mobile terminal 17 (the data-attached image transmission unit 34, the position information acquisition unit 35, the image reception unit 36, the operation input reception unit 37, and the storage/readout unit 39) is configured as shown in FIG. Any one of the elements is a function realized by operating according to an instruction from the CPU 201 according to a program developed on the RAM 203 from the EEPROM 204, or a means to function.

また、携帯端末17は、図7に示されているRAM203やEEPROM204によって構築される記憶部2000を有している。記憶部2000には画像DB2001が構築されている。画像DB2001には撮像装置11がルート上で撮像した一連の画像が記憶される。一連の画像とは、ルート上で撮像された全ての画像をいう。必ずしも全てを含まなくてもよい。例えば、撮像装置11又は携帯端末17の任意の機能又は手段が画質を評価して基準以上の画像のみを選別する。 The mobile terminal 17 also has a storage unit 2000 constructed by the RAM 203 and EEPROM 204 shown in FIG. An image DB 2001 is constructed in the storage unit 2000 . The image DB 2001 stores a series of images captured by the imaging device 11 along the route. A series of images refers to all images taken along the route. It does not necessarily include all. For example, an arbitrary function or means of the imaging device 11 or the mobile terminal 17 evaluates the image quality and selects only images of a standard or better.

操作入力受付部37は、図7に示されているCPU201からの命令及びタッチパネル216等によって実現され、撮像者8の携帯端末17に対する各種の操作を受け付ける。例えば、撮像の開始、撮像の終了及び撮像間隔(周期、一定距離)などを受け付ける。このような操作内容は携帯端末17から撮像装置11に送信される。 The operation input reception unit 37 is implemented by commands from the CPU 201 and the touch panel 216 and the like shown in FIG. For example, the start of imaging, the end of imaging, the imaging interval (cycle, fixed distance), and the like are accepted. Such operation content is transmitted from the portable terminal 17 to the imaging device 11 .

画像受信部36は、図7に示されているCPU201からの命令及び通信部213等によって実現され、画像を撮像装置11から受信する。撮像の開始から撮像の終了までに送信される画像は画像DB2001に記憶される。 The image receiving unit 36 is implemented by commands from the CPU 201 and the communication unit 213 shown in FIG. 7, and receives images from the imaging device 11 . Images transmitted from the start of imaging to the end of imaging are stored in the image DB 2001 .

位置情報取得部35は、図7に示されているCPU201からの命令及びGPS受信部214等によって実現され、画像受信部36が画像を受信するごとに携帯端末17の現在位置を取得する。この現在位置が撮像位置である。位置情報取得部35は撮像位置を画像のメタデータに追加する。したがって、画像には、「撮像日時・画像データのサムネイル・方位・ロール角・データサイズ・撮像位置」が添付されている。しかし、以下の説明では、説明の便宜上、画像データのサムネイル、ロール角及びデータサイズを省略し、画像には以下の撮像情報が添付されているものとして説明する。 The position information acquisition unit 35 is implemented by commands from the CPU 201 and the GPS reception unit 214 and the like shown in FIG. 7, and acquires the current position of the mobile terminal 17 each time the image reception unit 36 receives an image. This current position is the imaging position. The position information acquisition unit 35 adds the imaging position to the metadata of the image. Therefore, an image is attached with "image date and time, image data thumbnail, azimuth, roll angle, data size, and imaging position". However, in the following explanation, for convenience of explanation, the thumbnail, roll angle, and data size of the image data are omitted, and the following imaging information is attached to the image.

撮像情報:「撮像日時・方位・撮像位置」
データ付き画像送信部34は、図7に示されているCPU201からの命令及び通信部213等によって実現され、撮像情報が添付された画像をコンテンツ作成サーバ12に送信する。送信のタイミングは、操作入力受付部37が例えば撮像の終了を受け付けた時であるが、撮像の度に送信してもよいし、撮像の終了の後に送信してもよい。また、撮像者8が記録メディア207に記憶させてコンテンツ作成サーバ12に読み取らせてもよい。
Imaging information: "Date and time of imaging, direction, imaging position"
The data-attached image transmission unit 34 is implemented by commands from the CPU 201 and the communication unit 213 shown in FIG. The transmission timing is, for example, when the operation input receiving unit 37 receives the end of imaging, but it may be transmitted each time imaging is performed, or may be transmitted after the imaging is completed. Alternatively, the photographer 8 may store the data in the recording medium 207 and cause the content creation server 12 to read the data.

記憶・読出部39は、図7に示されているCPU201からの命令等によって実現され、記憶部2000に対しデータの記憶及び読み出しを行う。なお、記憶・読出部39による記憶部2000へのデータの記憶及び読み出しは、記憶・読出部39が各部からの要求に応じて実行するものとし、明記しない場合がある。 The storage/readout unit 39 is implemented by commands or the like from the CPU 201 shown in FIG. It should be noted that the storage and reading of data in and from the storage unit 2000 by the storage/readout unit 39 are assumed to be executed by the storage/readout unit 39 in response to requests from each unit, and may not be specified.

<<コンテンツ作成サーバ12>>
次に、コンテンツ作成サーバ12の機能について説明する。コンテンツ作成サーバ12は画像補正部20、ルート作成部21、マップ取得部22、データ付き画像受信部23、URI送信部24、コンテンツ送信部25、画像埋め込み部26、及び、記憶・読出部29を有している。コンテンツ作成サーバ12が有する各部(画像補正部20、ルート作成部21、マップ取得部22、データ付き画像受信部23、URI送信部24、コンテンツ送信部25、画像埋め込み部26、及び、記憶・読出部29)は、図8に示されている各構成要素のいずれかが、HDD305からRAM303上に展開されたプログラム320に従ったCPU301からの命令によって動作することで実現される機能、又は機能される手段である。
<<content creation server 12>>
Next, functions of the content creation server 12 will be described. The content creation server 12 includes an image correction unit 20, a route creation unit 21, a map acquisition unit 22, an image reception unit 23 with data, a URI transmission unit 24, a content transmission unit 25, an image embedding unit 26, and a storage/readout unit 29. have. Each unit of the content creation server 12 (image correction unit 20, route creation unit 21, map acquisition unit 22, data-attached image reception unit 23, URI transmission unit 24, content transmission unit 25, image embedding unit 26, and storage/readout Unit 29) is a function realized or functioned by any one of the constituent elements shown in FIG. It is a means to

また、コンテンツ作成サーバ12は、図8に示されているRAM303やHDD305によって構築される記憶部3000を有している。記憶部3000には地図データDB3001及びアカウント管理DB3002が構築されている。 The content creation server 12 also has a storage unit 3000 constructed by the RAM 303 and HDD 305 shown in FIG. A map data DB 3001 and an account management DB 3002 are constructed in the storage unit 3000 .

地図データDB3001には、マップ62を描画するためのデータ及び歩行者が通行可能な道路の構造を表すデータが記憶されている。マップ62を描画するためのデータは、都道府県などの区画、緑地や河川、道路や鉄道、記号や注記など多くの表示対象があるため、性質の似たものに分類し各分類ごとに描画できるようになっている。それぞれに分類された表示対象又は表示対象が描画された状態をレイヤーといい、地図はいくつかのレイヤーを重ねることで描画される。各レイヤーの地図データは、ベクトルデータ又はラスターデータのうち表示対象に適したフォーマットで記述されている。また、地図データは経度・緯度などが既知のメッシュ状に区切られており、1つ以上のメッシュを結合してマップ62が作成される。ベクトルデータの場合は、緯度・経度でポイント、ポリライン、ポリゴンの位置が定められている。また、ラスターデータの場合は緯度・経度に対応付けて縮尺に応じたデータが用意されている。 The map data DB 3001 stores data for drawing the map 62 and data representing the structure of pedestrian-passable roads. Since the data for drawing the map 62 includes many display objects such as divisions such as prefectures, green spaces and rivers, roads and railroads, symbols and notes, it is possible to classify the data into those with similar properties and draw them for each classification. It's like Each classified display target or a state in which the display target is drawn is called a layer, and a map is drawn by overlapping several layers. The map data of each layer is described in a format suitable for display objects, either vector data or raster data. Further, the map data is partitioned into meshes with known longitude, latitude, etc., and the map 62 is created by combining one or more meshes. In the case of vector data, the positions of points, polylines, and polygons are determined by latitude and longitude. In the case of raster data, data corresponding to the scale are prepared in association with latitude and longitude.

道路の構造を表すデータは、ノードテーブルとリンクテーブルとを有している。ノードテーブルには、緯度・経度に対応付けて道路網表現上の結節点が登録されている。結節点をノードという。ノードは例えば交差点、分岐点、合流点、屈曲点などである。リンクテーブルにはノードのノード番号に対応付けて歩行者が通行可能な道路(歩道、横断歩道、歩道橋、地下道、通り抜け可能な通路など)が登録されている。歩行者だけでなく車が走行する道路のデータが登録されていてもよい。また、リンクテーブルには、リンク種別、幅員、リンク長などが登録されている。2つのノード間の道路をリンクといい、リンクはノード同士を結ぶ線分となる。 Data representing the structure of roads has a node table and a link table. Nodes on the road network representation are registered in the node table in association with latitude and longitude. A node is called a node. Nodes are, for example, intersections, branch points, confluence points, bend points, and the like. In the link table, roads through which pedestrians can pass (sidewalks, crosswalks, pedestrian bridges, underpasses, passages through which pedestrians can pass, etc.) are registered in association with the node numbers of the nodes. Data of roads on which cars travel as well as pedestrians may be registered. Further, the link type, width, link length, etc. are registered in the link table. A road between two nodes is called a link, and a link is a line segment connecting the nodes.

Figure 0007192923000001
アカウント管理DB3002には表1に示すようにコンテンツ利用企業のアカウントテーブルが登録されている。アカウントテーブルには、例えば、コンテンツ利用企業ID、パスワード、及び、メールアドレスなどが登録される。コンテンツ利用企業IDはコンテンツ利用企業を識別するための一意の識別情報である。パスワードはコンテンツ利用企業をコンテンツ作成サーバ12が認証するためのものである。メールアドレスはコンテンツ利用企業の担当者7のメールアドレスであり、コンテンツのURIを送信する際の宛先となる。なお、メールアドレスでなく、又は、メールアドレスに加えFAX番号や電話番号が登録されてもよい。
Figure 0007192923000001
In the account management DB 3002, as shown in Table 1, an account table of content user companies is registered. In the account table, for example, content user company IDs, passwords, and e-mail addresses are registered. The content user company ID is unique identification information for identifying the content user company. The password is for the content creation server 12 to authenticate the content user company. The e-mail address is the e-mail address of the person in charge 7 of the company using the content, and is the destination when the URI of the content is sent. In addition to the e-mail address, or in addition to the e-mail address, a FAX number or a telephone number may be registered.

データ付き画像受信部23は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、撮像情報が添付された画像を携帯端末17から受信する。 The data-attached image receiving unit 23 is implemented by commands from the CPU 301 and the network I/F 309 shown in FIG.

画像補正部20は、図8に示されているCPU301からの命令等によって実現され、撮像情報が添付された画像を圧縮する処理、及び、ロール角に基づく水平補正を行う。なお、画像補正部20の処理は携帯端末17が行ってもよい。 The image correcting unit 20 is realized by a command or the like from the CPU 301 shown in FIG. 8, and performs processing for compressing an image attached with imaging information, and horizontal correction based on the roll angle. Note that the processing of the image correction unit 20 may be performed by the mobile terminal 17 .

マップ取得部22は、図8に示されているCPU301からの命令等によって実現され、地図データDB3001からマップ62を取得する。マップ62として取得される範囲は、撮像情報に含まれる全ての撮像位置が含まれるように決定される。 The map acquisition unit 22 is realized by a command or the like from the CPU 301 shown in FIG. 8, and acquires the map 62 from the map data DB 3001. The range acquired as the map 62 is determined so as to include all imaging positions included in the imaging information.

ルート作成部21は、図8に示されているCPU301からの命令等によって実現され、マップ取得部22が取得したマップ62にルート63を作成する。ルート作成部21は、撮像情報に含まれる撮像位置を歩行者が歩行できる道路上にマッピングする。撮像位置が道路から若干離れていても最も近い道路上に配置するマップマッチングを行う。配置された撮像位置を、撮像日時の古いものから順に接続することでルート63が得られる。あるいは、配置された撮像位置を、撮像位置の近いものから順に接続してもよい。撮像者8がルート上を前後して歩いたような場合でも、ルートに沿ったコンテンツが得られる。 The route creating unit 21 is realized by commands from the CPU 301 shown in FIG. The route creation unit 21 maps the imaging positions included in the imaging information on roads on which pedestrians can walk. To perform map matching for arranging on the nearest road even if the imaging position is slightly away from the road. A route 63 is obtained by connecting the arranged imaging positions in order from the oldest imaging date and time. Alternatively, the arranged imaging positions may be connected in order from the closest imaging position. Even when the photographer 8 walks back and forth on the route, the content along the route can be obtained.

画像埋め込み部26は、ルート63の作成時に配置された撮像位置に画像を埋め込む。埋め込むとは、マップ上の撮像位置と画像を関連づけておくことをいう。関連づけにより、エンドユーザ6がマップ上の撮像位置を指定すると、撮像位置で撮像された画像が表示される。画像埋め込み部26は画像関連付け手段の一例である。 The image embedding unit 26 embeds an image in the imaging position arranged when the route 63 was created. Embedding refers to associating the imaging position on the map with the image. By association, when the end user 6 designates an imaging position on the map, an image captured at the imaging position is displayed. The image embedding unit 26 is an example of image association means.

マップ上にルート63が作成され、撮像位置に画像が埋め込まれたデータがコンテンツである。コンテンツは、図3に示したように例えば画像61とマップ62が表示可能な静止画を画像の数だけ有する。エンドユーザ6がマップ62の撮像位置を選択するとその場書の情報がコンテンツ提供サーバ13に通知され、コンテンツ提供サーバ13が選択された場所の画像をユーザPC16に送信する。また、複数の静止画をMPEGなどの動画ファイルに変換しておいてもよい。 The content is data in which a route 63 is created on the map and an image is embedded at the imaging position. As shown in FIG. 3, the content has the same number of still images that can be displayed, for example, image 61 and map 62 . When the end user 6 selects an imaging position on the map 62 , the content providing server 13 is notified of the information on the spot, and the content providing server 13 transmits an image of the selected location to the user PC 16 . Also, a plurality of still images may be converted into a moving image file such as MPEG.

コンテンツ送信部25は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、コンテンツが登録されるURIを指定してコンテンツをコンテンツ提供サーバ13に送信する。コンテンツが登録されるURIは、例えば一定の規則で決定されるものとする。
「ドメイン名+ディレクトリ名+コンテンツ利用企業ID+コンテンツ名」
ドメイン名はコンテンツ提供サーバのドメインなので既知であり、ディレクトリ名は例えば既知のフォルダ名(例えば、記憶部4000の「4000」である)。コンテンツ名は撮像者8が画像の送信前に付与してもよいし、コンテンツ作成サーバ12が付与してもよい。したがって、URIは例えば「コンテンツ提供サーバ/4000/コンテンツ利用企業ID/コンテンツ名」となる。
The content transmission unit 25 is implemented by commands from the CPU 301 and the network I/F 309 shown in FIG. It is assumed that the URI in which content is registered is determined according to certain rules, for example.
"Domain name + directory name + content user company ID + content name"
Since the domain name is the domain of the content providing server, it is known, and the directory name is, for example, a known folder name (for example, "4000" in storage unit 4000). The content name may be given by the photographer 8 before sending the image, or may be given by the content creation server 12 . Therefore, the URI is, for example, "content providing server/4000/content user company ID/content name".

URI送信部24は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、コンテンツのURIをアカウント管理DB3002のメールアドレスを宛先にして送信する。 The URI transmission unit 24 is implemented by commands from the CPU 301 and the network I/F 309 shown in FIG.

記憶・読出部29は、図8に示されているCPU301からの命令等によって実現され、記憶部3000に対しデータの記憶及び読み出しを行う。 The storage/readout unit 29 is implemented by a command or the like from the CPU 301 shown in FIG.

<<コンテンツ提供サーバ13>>
次に、コンテンツ提供サーバ13の機能について説明する。コンテンツ提供サーバ13は閲覧情報取得部55、コンテンツ受信部56、コンテンツ提供部57、及び、記憶・読出部54を有している。コンテンツ提供サーバ13が有する各部(閲覧情報取得部55、コンテンツ受信部56、コンテンツ提供部57、及び、記憶・読出部54)は、図8に示されている各構成要素のいずれかが、HDD305からRAM303上に展開されたプログラム320に従ったCPU301からの命令によって動作することで実現される機能、又は機能される手段である。
<<content providing server 13>>
Next, functions of the content providing server 13 will be described. The content providing server 13 has a viewing information acquisition unit 55 , a content receiving unit 56 , a content providing unit 57 and a storage/reading unit 54 . Each unit (browsing information acquiring unit 55, content receiving unit 56, content providing unit 57, and storage/reading unit 54) of content providing server 13 has one of the components shown in FIG. It is a function realized by operating according to an instruction from the CPU 301 according to the program 320 developed on the RAM 303 from the above, or a means to be functioned.

また、コンテンツ提供サーバ13は、図8に示されているRAM303やHDD305によって構築される記憶部4000を有している。記憶部4000にはコンテンツ管理DB4001が構築されている。 The content providing server 13 also has a storage unit 4000 constructed by the RAM 303 and HDD 305 shown in FIG. A content management DB 4001 is constructed in the storage unit 4000 .

Figure 0007192923000002
コンテンツ管理DB4001には表2に示すようにコンテンツ管理テーブルが登録されている。コンテンツ管理テーブルには、例えば、コンテンツ利用企業ID、コンテンツ名、URI、提供回数、閲覧時間及び時間帯などが登録されている。なお、便宜上、コンテンツ管理DB4001にはコンテンツが記憶されるものとするが、コンテンツはネットワーク18からアクセス可能な場所に保持されていればよい。URIが指定されれば、コンテンツ提供サーバ13はコンテンツを特定できる。提供回数は、各コンテンツが何回、エンドユーザ6に提供されたかを示す。閲覧時間はコンテンツ提供サーバへの滞在時間を意味し、5~10分間隔で区切られた各時間間隔ごとに人数が登録されている。なお、コンテンツ提供サーバへの滞在時間は例えばTCPのセッションが維持されている時間により測定できる。時間帯はどのような時間帯にコンテンツが閲覧されているかを意味し、例えば0~1時、1~2時などのように1時間ずつ区切られた各時間間隔ごとに人数が登録されている。
Figure 0007192923000002
A content management table as shown in Table 2 is registered in the content management DB 4001 . In the content management table, for example, content user company IDs, content names, URIs, number of times of provision, viewing times, time zones, etc. are registered. For the sake of convenience, it is assumed that content is stored in the content management DB 4001 , but the content may be held in a location accessible from the network 18 . If the URI is specified, the content providing server 13 can identify the content. The number of times of provision indicates how many times each content has been provided to the end user 6 . The viewing time means the staying time in the content providing server, and the number of people is registered for each time interval separated by 5 to 10 minute intervals. The length of stay in the content providing server can be measured, for example, by the length of time a TCP session is maintained. The time zone means the time zone in which the content is viewed, and the number of people is registered for each hourly interval, such as 0 to 1:00, 1 to 2:00, and so on. .

コンテンツ受信部56は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、URIが指定されたコンテンツをコンテンツ作成サーバ12から受信する。コンテンツ受信部56は、コンテンツ作成サーバ12から取得したURIに基づいてコンテンツ管理DB4001にコンテンツを登録し、コンテンツを記憶させる。コンテンツのURIはコンテンツ利用企業IDとコンテンツ名で作成されているので、コンテンツ管理DB4001にコンテンツ利用企業IDとコンテンツ名を登録できる。あるいは、コンテンツ受信部56は、コンテンツ利用企業IDとコンテンツ名をコンテンツ作成サーバ12から取得してURIを作成し、コンテンツ管理DB4001にコンテンツのURI等を登録してもよい。 The content receiving unit 56 is realized by commands from the CPU 301 and the network I/F 309 shown in FIG. The content receiving unit 56 registers content in the content management DB 4001 based on the URI obtained from the content creation server 12, and stores the content. Since the content URI is created with the content user ID and content name, the content user ID and content name can be registered in the content management DB 4001 . Alternatively, the content receiving unit 56 may acquire the content user ID and content name from the content creation server 12 to create a URI, and register the content URI and the like in the content management DB 4001 .

コンテンツ提供部57は、図8に示されているCPU301からの命令等によって実現され、URIで指定されるコンテンツをユーザPC16に提供する。 The content providing unit 57 is implemented by a command or the like from the CPU 301 shown in FIG. 8, and provides the user PC 16 with content specified by a URI.

閲覧情報取得部55は、図8に示されているCPU301からの命令等によって実現され、コンテンツ提供部57が提供したコンテンツの提供回数をカウントしてアカウント管理DB3002に登録する。また、閲覧情報取得部55は、エンドユーザ6が「どれくらいの時間コンテンツを見ていたか」「どの時間帯に見ていたか」などをアカウント管理DB3002に登録する。 The browsing information acquisition unit 55 is implemented by commands from the CPU 301 shown in FIG. In addition, the browsing information acquisition unit 55 registers in the account management DB 3002 information such as "how long the end user 6 watched the content" and "what time zone the content was watched".

記憶・読出部54は、図8に示されているCPU301からの命令等によって実現され、記憶部4000に対しデータの記憶及び読み出しを行う。 The storage/readout unit 54 is implemented by commands or the like from the CPU 301 shown in FIG.

<<コンテンツ利用企業PC15>>
次に、コンテンツ利用企業PC15の機能について説明する。コンテンツ利用企業PC15はURI受信部41、操作入力受付部42、Webページ送信部43、及び、記憶・読出部44を有している。コンテンツ利用企業PC15が有する各部(URI受信部41、操作入力受付部42、Webページ送信部43、及び、記憶・読出部44)は、図8に示されている各構成要素のいずれかが、HDD305からRAM303上に展開されたプログラム320に従ったCPU301からの命令によって動作することで実現される機能、又は機能される手段である。
<<PC 15 of content user company>>
Next, functions of the content user company PC 15 will be described. The content user company PC 15 has a URI reception unit 41 , an operation input reception unit 42 , a web page transmission unit 43 , and a storage/readout unit 44 . Each unit (URI reception unit 41, operation input reception unit 42, web page transmission unit 43, and storage/readout unit 44) of the content user company PC 15 has any of the components shown in FIG. It is a function realized by operating according to an instruction from the CPU 301 according to the program 320 developed on the RAM 303 from the HDD 305 or a means that functions.

また、コンテンツ利用企業PC15は、図8に示されているRAM303やHDD305によって構築される記憶部5000を有している。記憶部5000にはWebページDB5001が構築されている。 The content user company PC 15 also has a storage unit 5000 constructed by the RAM 303 and HDD 305 shown in FIG. A web page DB 5001 is constructed in the storage unit 5000 .

WebページDB5001は、コンテンツ利用企業PC15のWebページが記憶されている。このWebページはWebサーバ14に登録されるものであり、Webサーバ14が提供するWebページと同じものである。 The web page DB 5001 stores web pages of the content user company PC 15 . This web page is registered in the web server 14 and is the same as the web page provided by the web server 14 .

URI受信部41は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、URIをコンテンツ作成サーバ12から受信する。 URI reception unit 41 is implemented by commands from CPU 301 and network I/F 309 and the like shown in FIG.

操作入力受付部42は、図8に示されているCPU301からの命令及びキーボード311やマウス312等によって実現され、コンテンツ利用企業の担当者7の操作を受け付ける。この操作は、主にURIを自社のWebページ(HTMLデータやJavaScriptで記述されたWebアプリを含む)の所望の場所に貼り付ける操作である。 The operation input receiving unit 42 is implemented by commands from the CPU 301, the keyboard 311, the mouse 312, and the like shown in FIG. This operation is mainly an operation of pasting the URI to a desired location on the company's web page (including HTML data and web applications written in JavaScript).

Webページ送信部43は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、例えばFTP(File Transfer Protocol)、HTTP(Hypertext Transfer Protocol)、SSH(Secure Shell)などのプロトコルでWebページをWebサーバ14に送信する。 The web page transmission unit 43 is realized by commands from the CPU 301 and the network I/F 309 shown in FIG. A web page is sent to the web server 14 using a protocol.

記憶・読出部44は、図8に示されているCPU301からの命令等によって実現され、記憶部5000に対しデータの記憶及び読み出しを行う。 The storage/readout unit 44 is implemented by a command or the like from the CPU 301 shown in FIG.

なお、コンテンツ利用企業PC15が、コンテンツ作成サーバ12が有するマップ取得部22、ルート作成部21、及び、画像埋め込み部26を有していてもよい。これにより、コンテンツ利用企業の担当者7がコンテンツを作成できる。 Note that the content user company PC 15 may have the map acquisition unit 22, the route creation unit 21, and the image embedding unit 26 that the content creation server 12 has. This allows the person in charge 7 of the content-using company to create the content.

<<Webサーバ14>>
次に、Webサーバ14の機能について説明する。Webサーバ14はWebページ受信部51、Webページ提供部52、及び、記憶・読出部53を有している。Webサーバ14が有する各部(Webページ受信部51、Webページ提供部52、及び、記憶・読出部53)は、図8に示されている各構成要素のいずれかが、HDD305からRAM303上に展開されたプログラム320に従ったCPU301からの命令によって動作することで実現される機能、又は機能される手段である。
<<Web server 14>>
Next, functions of the web server 14 will be described. The web server 14 has a web page receiving unit 51 , a web page providing unit 52 and a storage/reading unit 53 . Each unit (web page receiving unit 51, web page providing unit 52, and storage/reading unit 53) of the web server 14 has any of the components shown in FIG. It is a function realized by operating according to an instruction from the CPU 301 according to the program 320 written, or a means to be functioned.

また、Webサーバ14は、図8に示されているRAM303やHDD305によって構築される記憶部6000を有している。記憶部6000にはWebページDB6001が構築されている。 The web server 14 also has a storage unit 6000 constructed by the RAM 303 and HDD 305 shown in FIG. A web page DB 6001 is constructed in the storage unit 6000 .

WebページDB6001は、Webサーバ14がユーザPC16からの要求に応じて提供するためのWebページを記憶している。 The web page DB 6001 stores web pages to be provided by the web server 14 in response to requests from the user PC 16 .

Webページ受信部51は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、Webページをコンテンツ利用企業PC15から受信する。受信したWebページをWebページDB6001に記憶させる。 The web page receiving unit 51 is implemented by commands from the CPU 301 and the network I/F 309 shown in FIG. 8, and receives web pages from the content user company PC 15 . The received web page is stored in the web page DB 6001 .

Webページ提供部52は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、ユーザPC16から要求されるWebページをユーザPC16に送信する。 Web page providing unit 52 is implemented by commands from CPU 301 and network I/F 309 and the like shown in FIG.

記憶・読出部53は、図8に示されているCPU301からの命令等によって実現され、記憶部6000に対しデータの記憶及び読み出しを行う。 The storage/readout unit 53 is implemented by a command or the like from the CPU 301 shown in FIG.

<<ユーザPC16>>
次に、ユーザPC16の機能について説明する。ユーザPC16はWebページ要求部45、Webページ表示部46、及び、操作入力受付部47を有している。ユーザPC16が有する各部(Webページ要求部45、Webページ表示部46、及び、操作入力受付部47)は、図8に示されている各構成要素のいずれかが、HDD305からRAM303上に展開されたプログラム320に従ったCPU301からの命令によって動作することで実現される機能、又は機能される手段である。
<<User PC 16>>
Next, functions of the user PC 16 will be described. The user PC 16 has a web page request section 45 , a web page display section 46 and an operation input reception section 47 . Each unit (Web page request unit 45, Web page display unit 46, and operation input reception unit 47) of user PC 16 has any of the components shown in FIG. It is a function realized by operating according to an instruction from the CPU 301 according to the program 320, or a means to be functioned.

Webページ要求部45は、図8に示されているCPU301からの命令及びネットワークI/F309等によって実現され、エンドユーザ6の操作に応じてWebページをWebサーバ14に要求する。また、エンドユーザ6がコンテンツのURIを指示した場合、コンテンツ提供サーバ13にコンテンツを要求する。 The web page requesting unit 45 is realized by commands from the CPU 301 and the network I/F 309 and the like shown in FIG. Also, when the end user 6 designates the URI of the content, the content providing server 13 is requested for the content.

Webページ表示部46は、図8に示されているCPU301からの命令及びディスプレイ308等によって実現され、Webページを表示する。Webページ要求部45やWebページ表示部46はいわゆるブラウザソフトウェアにより実現されるが、これに限定されるものではない。 The web page display unit 46 is realized by commands from the CPU 301 and the display 308 and the like shown in FIG. 8, and displays web pages. The web page requesting unit 45 and the web page displaying unit 46 are implemented by so-called browser software, but are not limited to this.

操作入力受付部47は、図8に示されているCPU301からの命令、キーボード311及びマウス312等によって実現され、エンドユーザ6の操作を受け付ける。エンドユーザ6は任意のWebページを指定したり、Webページに含まれるコンテンツを指定する。コンテンツを表示させた場合は、マップ上の撮像位置を指定したり、画像の表示方向を指示したりする。 The operation input receiving unit 47 is realized by commands from the CPU 301, the keyboard 311, the mouse 312, etc. shown in FIG. The end user 6 designates an arbitrary web page or designates content contained in the web page. When the content is displayed, the user designates the image pickup position on the map or instructs the display direction of the image.

なお、ユーザPC16が、コンテンツ作成サーバ12が有するマップ取得部22、ルート作成部21、及び、画像埋め込み部26を有していてもよい。これにより、エンドユーザ6がコンテンツを作成できる。 Note that the user PC 16 may have the map acquisition unit 22, the route creation unit 21, and the image embedding unit 26 that the content creation server 12 has. This allows the end user 6 to create content.

<URIの埋め込み>
図12はWebページへのURIの埋め込みを説明する図の一例である。図12(a)はHTMLデータの一例であり、図12(b)はコンテンツが記憶されている場所を示すURIの一例である。
<Embedded URI>
FIG. 12 is an example of a diagram explaining embedding of a URI in a web page. FIG. 12(a) is an example of HTML data, and FIG. 12(b) is an example of a URI indicating a location where content is stored.

図12(b)のURIは、ドメイン名が「YouTune.com」となっており、これがコンテンツ提供サーバ13のドメイン名の一例である。「4000/001/001-A」は順番にディレクトリ名、コンテンツ利用企業ID、コンテンツ名である。 The URI shown in FIG. 12B has a domain name of “YouTune.com”, which is an example of the domain name of the content providing server 13 . "4000/001/001-A" is a directory name, content user company ID, and content name in that order.

Iframeタグはsrc で指定したリソース(本実施形態ではコンテンツ)を画面中にインラインで表示させるHTMLデータのタグの1つである。「width」は画像がユーザPC16に表示される際の幅を、「height」は画像が表示される際の高さをそれぞれ指示する。「src」にはサイトのドメインとURIが記述されている。「frameborder」は画像が表示される際の境界線の幅である。「allowfullscreen」はフルスクリーンモードでの表示を許可することを意味する。 The Iframe tag is one of HTML data tags for inline display of the resource (content in this embodiment) specified by src on the screen. "width" indicates the width when the image is displayed on the user PC 16, and "height" indicates the height when the image is displayed. "src" describes the domain and URI of the site. "frameborder" is the width of the border when the image is displayed. "allowfullscreen" means allow display in fullscreen mode.

なお、Iframeタグは一例であって、Webページの記述形式(この場合はHTMLの記述形式)に従えばどのようなタグを用いてもよい。
図12(c)はURIが埋め込まれたWebページの一例を示す。コンテンツ利用企業の担当者7は所望の場所にURIを貼り付けるだけで、自社のWebページとコンテンツを関連づけることができるので、容易にコンテンツの利用を開始できる。また、コンテンツの変更やコンテンツの追加も容易である。なお、図示した貼り付け位置は一例であって、Webページの記述形式に従えばどのようなタグを用いてもよい。
Note that the Iframe tag is just an example, and any tag may be used as long as it conforms to the Web page description format (HTML description format in this case).
FIG. 12(c) shows an example of a web page in which a URI is embedded. The person in charge 7 of the content-using company can associate the company's Web page with the content simply by pasting the URI to a desired location, and thus can easily start using the content. In addition, it is easy to change contents and add contents. Note that the illustrated pasting position is an example, and any tag may be used as long as it conforms to the Web page description format.

<コンテンツ提供時のコンテンツの送信>
コンテンツ提供部57がユーザPC16にコンテンツを送信する際、当初は少なくともマップ62と1つ以上の画像を送信すればよく、コンテンツに含まれる全ての画像を送信する必要はない。また、エンドユーザ6が次々と撮像位置を指定する場合や、動画としてコンテンツを再生する場合なども、エンドユーザ6は周囲全方位の画像を見るわけではない。
<Transmission of content when providing content>
When the content providing unit 57 transmits content to the user PC 16, it is sufficient to transmit at least the map 62 and one or more images at the beginning, and it is not necessary to transmit all the images included in the content. Also, when the end user 6 designates the imaging positions one after another, or when the content is played back as a moving image, the end user 6 does not necessarily see images in all directions.

そこで、コンテンツ提供部57は、画像の全てをユーザPC16に送信するのでなく、ユーザPC16が表示している範囲と同じ範囲の一部画像のみをユーザPC16に送信する。こうすることで、コンテンツ提供サーバ13は比較的データサイズが大きい全方位パノラマ画像の一部だけを送信すればよいので、送信時間を短縮できる。 Therefore, the content providing unit 57 does not transmit the entire image to the user PC 16, but transmits only a partial image of the same range as the range displayed by the user PC 16 to the user PC 16. FIG. By doing so, the content providing server 13 needs to transmit only a part of the omnidirectional panoramic image having a relatively large data size, so that the transmission time can be shortened.

図13はコンテンツ提供部57による一部画像の送信を模式的に説明する図の一例である。図13では、全天球画像を3次元の立体球とした場合の一部画像の位置を示す。図13(a)は球の一部の矩形領域を、図13(b)は矩形領域の高さ方向への射影を、図13(c)は矩形領域の水平方向への射影をそれぞれ示している。一部画像Imは、全天球画像のうちユーザPC16が表示している部分である。 FIG. 13 is an example of a diagram schematically explaining transmission of a partial image by the content providing unit 57. As shown in FIG. FIG. 13 shows the positions of partial images when the omnidirectional image is a three-dimensional sphere. 13(a) shows a partial rectangular area of the sphere, FIG. 13(b) shows the projection of the rectangular area in the height direction, and FIG. 13(c) shows the projection of the rectangular area in the horizontal direction. there is The partial image Im is a portion of the omnidirectional image displayed by the user PC 16 .

全天球画像は、緯度・経度などの座標により任意の一点の画素が指定される。図13では緯度・経度をx、yで示す。したがって、ユーザPC16は、ユーザPC16が表示している一部画像Imの4つの座標(x1,y2)(x1,y1)(x2,y1)(x2,y2)により、一部画像Imを特定できる。 In the omnidirectional image, any one point pixel is designated by coordinates such as latitude and longitude. In FIG. 13, latitude and longitude are indicated by x and y. Therefore, the user PC 16 can specify the partial image Im by the four coordinates (x1, y2) (x1, y1) (x2, y1) (x2, y2) of the partial image Im displayed by the user PC 16. .

Webページ要求部45はこの一部画像Imの座標をコンテンツ提供サーバ13に送信する。一部画像Imの座標は画像範囲情報の一例であり、全天球画像のうち一部がディスプレイ308に表示される際の範囲(画角)を指定する。コンテンツ提供サーバ13のコンテンツ提供部57は、次に送信する画像のうち座標で指示される一部画像のみをユーザPC16に送信する。次に送信する画像とは、エンドユーザ6が過去に複数の画像を閲覧した場合には、ルート63に沿った次の撮像位置の画像である。エンドユーザ6が過去に1つの画像しか閲覧していない場合、該画像で表示された一部画像に垂直な方向(エンドユーザ6が見ている方向)の次の画像である。 The Web page requesting unit 45 transmits the coordinates of this partial image Im to the content providing server 13 . The coordinates of the partial image Im are an example of image range information, and specify the range (angle of view) when part of the omnidirectional image is displayed on the display 308 . The content providing unit 57 of the content providing server 13 transmits to the user PC 16 only the partial image indicated by the coordinates among the images to be transmitted next. The image to be transmitted next is the image at the next imaging position along the route 63 when the end user 6 has browsed a plurality of images in the past. If the end user 6 has viewed only one image in the past, it is the next image in the direction perpendicular to the partial image displayed in that image (the direction the end user 6 is looking).

これにより、コンテンツ提供サーバ13は画像を短時間に送信できる。なお、通信帯域に余裕があれば(次の撮像位置の画像を送信するまでに時間があれば)、コンテンツ提供部57は一部画像に隣接した一部画像から優先してユーザPC16に送信する。したがって、通信帯域に余裕があれば全天球画像の全てをユーザPC16に送信できる。また、全天球画像の全てをユーザPC16に送信する前に、ユーザPC16から次の撮像位置の画像が要求された場合、4つの座標で指示される次の撮像位置の一部画像のみを送信する。 Thereby, the content providing server 13 can transmit the image in a short time. It should be noted that if there is a margin in the communication band (if there is time before transmitting the image of the next imaging position), the content providing unit 57 preferentially transmits to the user PC 16 the partial image adjacent to the partial image. . Therefore, if there is enough communication band, all spherical images can be transmitted to the user PC 16 . Also, if the user PC 16 requests the image of the next imaging position before transmitting all the omnidirectional images to the user PC 16, only the partial image of the next imaging position indicated by the four coordinates is transmitted. do.

<全天球画像の埋め込み>
図14はマップ62への全天球画像の埋め込みを模式的に説明する図の一例である。全天球画像には方位が添付されているので、画像埋め込み部26はマップ62における方位に全天球画像65の方位を一致させて、マップ62のルート上のそれぞれの撮像位置64に全天球画像65を埋め込む。全天球画像65に方位が添付されているため、このように簡単な処理でマップ62に全天球画像65を埋め込むことができる。
<Embedding spherical images>
FIG. 14 is an example of a diagram schematically explaining embedding of an omnidirectional image in the map 62. In FIG. Since the orientation is attached to the omnidirectional image, the image embedding unit 26 matches the azimuth of the omnidirectional image 65 with the orientation on the map 62, and the omnidirectional image is assigned to each imaging position 64 on the route of the map 62. A sphere image 65 is embedded. Since the azimuth is attached to the omnidirectional image 65, the omnidirectional image 65 can be embedded in the map 62 by such a simple process.

<動作手順>
図15等の各ステップを用いて、画像の送信手順を説明する。図15は、撮像装置11が携帯端末17に画像を送信する手順を示すシーケンス図の一例である。
S1:撮像者8が携帯端末17を操作すると、操作入力受付部37が操作を受付、操作内容を撮像装置11に送信する。ここでは撮像を開始する操作が行われたものとする。また、撮像間隔として周期を指示する時間又は一定距離を指示する距離が送信されてもよい。
S2:画像作成部31は定期的に又は一定距離ごとに画像を撮像して撮像情報収集部32に送出する。一定距離ごとに撮像する場合、S1-1に示すように、携帯端末17は撮像者8が一定距離、移動したことを撮像装置11に通知する。一定距離、移動したことは位置情報から推定されてもよいし、加速度・方位センサ206が検出した歩数により推定されてもよい。これにより、ルート上のほぼ等間隔の画像が得られ、エンドユーザ6がコンテンツを表示した場合に、実際に歩行しているかのような感覚を得やすくなる。
S3:撮像情報収集部32は撮像日時と方位を収集し、メタデータとして画像に添付して、送受信部33に送出する。
S4:送受信部33は、撮像日時と方位が添付された画像を携帯端末17の画像受信部36に送信する。
S5:携帯端末17の画像受信部36は撮像日時と方位が添付された画像を受信して、これらを位置情報取得部35に送出する。
S6:位置情報取得部35は画像を受信したことを契機に撮像位置を取得して画像に添付する。これにより撮像情報が添付された画像が得られる。位置情報取得部35は画像を画像DB2001に記憶させる。
<Operation procedure>
An image transmission procedure will be described using each step in FIG. 15 and the like. FIG. 15 is an example of a sequence diagram showing a procedure for the imaging device 11 to transmit an image to the mobile terminal 17. As shown in FIG.
S1: When the photographer 8 operates the mobile terminal 17 , the operation input reception unit 37 receives the operation and transmits the operation content to the imaging device 11 . Here, it is assumed that an operation to start imaging has been performed. Alternatively, a time indicating a cycle or a distance indicating a fixed distance may be transmitted as the imaging interval.
S2: The image creating section 31 takes an image periodically or at regular distances and sends it to the imaging information collecting section 32 . When capturing an image at fixed distance intervals, the portable terminal 17 notifies the imaging device 11 that the photographer 8 has moved a fixed distance, as shown in S1-1. Moving a certain distance may be estimated from the position information, or may be estimated from the number of steps detected by the acceleration/direction sensor 206 . As a result, images of the route are obtained at substantially equal intervals, and when the content is displayed, the end user 6 can easily feel as if they were actually walking.
S3: The imaging information collection unit 32 collects the date and time of imaging and the orientation, attaches them to the image as metadata, and sends them to the transmission/reception unit 33 .
S4: The transmitting/receiving unit 33 transmits the image attached with the imaging date and direction to the image receiving unit 36 of the mobile terminal 17 .
S5: The image receiving unit 36 of the mobile terminal 17 receives the image attached with the image capturing date and time and the direction, and sends them to the position information acquiring unit 35 .
S6: When the image is received, the position information acquisition unit 35 acquires the imaging position and attaches it to the image. As a result, an image to which imaging information is attached is obtained. The position information acquisition unit 35 stores the image in the image DB 2001 .

撮像装置11と携帯端末17は、撮像者8が撮像を終了させるまで撮像と画像DB2001への画像の記憶を繰り返す。なお、撮像者8は1つのルートを複数回、撮像してもよい。例えば、朝、昼、晩に撮像することで、該ルートのそれぞれの時間帯で画像が撮像されたコンテンツが作成される。また、撮像者8は春夏秋冬、晴天、雨天、曇天などの異なる環境で同じルートを撮像してもよい。 The imaging device 11 and the portable terminal 17 repeat imaging and storage of images in the image DB 2001 until the imaging person 8 finishes imaging. Note that the photographer 8 may take images of one route multiple times. For example, by capturing images in the morning, noon, and evening, content is created in which images are captured in each time slot of the route. Also, the photographer 8 may capture images of the same route in different environments such as four seasons, fine weather, rainy weather, and cloudy weather.

図16は、携帯端末17が画像をコンテンツ作成サーバ12に送信する手順を示すシーケンス図の一例である。
S1:撮像者8が撮像を終了する操作を行う。
S2:撮像を終了する操作を行うと、携帯端末17はコンテンツ名を入力するダイアログを表示するため、撮像者8はコンテンツ名を入力する。なお、コンテンツ名は撮像を終了する前に入力してもよい。また、撮像者8はルートの始点という属性を任意の画像に付与したり、ルートの終点という属性を任意の画像に付与したりすることができる。すなわち、ルートの始点と終点を指定できる。これらの入力が終わると操作入力受付部37は撮像終了をデータ付き画像送信部34に通知する。
S3:データ付き画像送信部34は画像DB2001から、撮像開始から終了までの一連の画像を読み出す。
S4:データ付き画像送信部34は一連の画像をコンテンツ作成サーバ12に送信する。データ付き画像送信部34は、撮像者8が入力したコンテンツ利用企業IDとパスワードを一連の画像と共に(又は前後して)送信してもよい。コンテンツ作成サーバ12はコンテンツ利用企業IDとパスワードに基づく撮像者8の認証が成立する場合にコンテンツを作成する。なお、課金などを考慮しなければ、コンテンツ利用企業の認証は不要である。
S5:データ付き画像受信部23は一連の画像をマップ取得部22に送出する。
S6:マップ取得部22は、一連の画像の全ての撮像位置が含まれるマップ62を地図データDB3001から読み出し、マップ62に一連の画像を添付する。マップ取得部22はマップ62が添付された一連の画像をルート作成部21に送出する。
S7:ルート作成部21は、マップ62に一連の画像の全ての撮像位置をマッピングして、撮像日時の順に接続することでルート63を作成する。ルート63は太線などで強調される。ルート作成部21は、マップ62とルート63が添付された一連の画像を画像埋め込み部26に送出する。
S8:画像埋め込み部26はルート63上の撮像位置に一連の画像を埋め込む。そして、画像埋め込み部26は、画像が埋め込まれたマップ62及びルート63を1つのコンテンツとしてコンテンツ送信部25に送出する。
FIG. 16 is an example of a sequence diagram showing a procedure for the portable terminal 17 to transmit an image to the content creation server 12. As shown in FIG.
S1: The photographer 8 performs an operation to finish imaging.
S2: When the user performs an operation to end the imaging, the portable terminal 17 displays a dialog for entering the content name, so the photographer 8 enters the content name. It should be noted that the content name may be input before the image pickup is finished. In addition, the photographer 8 can add the attribute of starting point of route to any image, and can add the attribute of ending point of route to any image. That is, you can specify the start and end points of the route. When these inputs are finished, the operation input reception unit 37 notifies the image-with-data transmission unit 34 of the end of imaging.
S3: The data-attached image transmission unit 34 reads out a series of images from the start to end of imaging from the image DB 2001 .
S4: The image-with-data transmission unit 34 transmits a series of images to the content creation server 12 . The image-with-data transmission unit 34 may transmit the content-using company ID and password input by the photographer 8 together with (or before or after) a series of images. The content creation server 12 creates content when the photographer 8 is authenticated based on the content user company ID and password. It should be noted that authentication of the content-using company is not required if billing and the like are not taken into consideration.
S5: The data-attached image receiving section 23 sends out a series of images to the map acquiring section 22 .
S6: The map acquisition unit 22 reads out the map 62 containing all the imaging positions of the series of images from the map data DB 3001 and attaches the series of images to the map 62 . The map acquisition unit 22 sends a series of images with the map 62 attached to the route creation unit 21 .
S7: The route creation unit 21 creates a route 63 by mapping all the imaging positions of the series of images on the map 62 and connecting them in order of imaging date and time. Route 63 is emphasized with a thick line or the like. The route creation unit 21 sends a series of images to which the map 62 and the route 63 are attached to the image embedding unit 26 .
S8: The image embedding unit 26 embeds a series of images at the imaging position on the route 63. Then, the image embedding section 26 sends the map 62 and the route 63 in which the image is embedded as one content to the content transmitting section 25 .

図17は、コンテンツとWebページの登録の手順を示すシーケンス図の一例である。
S1:コンテンツ送信部25はURIを指定してコンテンツをコンテンツ提供サーバ13に送信する。
S2:コンテンツ提供サーバ13のコンテンツ受信部56はコンテンツを受信して、URIにより指定されるコンテンツ管理DB4001に記憶させる。なお、コンテンツ提供サーバ13は任意の場所にコンテンツを記憶して、その記憶場所のURIをコンテンツ作成サーバ12に送信してもよい。
S3:コンテンツ送信部25はコンテンツが記憶されたURIをURI送信部24に送出する。
S4:URI送信部24はコンテンツ利用企業の担当者7のメールアドレスを宛先にして、URIを送信する。
S5:コンテンツ利用企業PC15のURI受信部41はURIが記述されたメールを受信し、一時的にRAM303などに保存する。コンテンツ利用企業の担当者7はメールを開いてURIをディスプレイ308に表示させるので、操作入力受付部42は該操作を受け付けてURIを例えばコピーする。
S6:コンテンツ利用企業の担当者7はWebページDB5001から所望のWebページを読み出す操作を行い、操作入力受付部42は該操作を受け付けてWebページを読み出す。
S7:コンテンツ利用企業の担当者7はWebページにコピーしたURIを貼り付ける操作を行い、操作入力受付部42はURIが貼り付けられたWebページをWebページ送信部43に送出する。
FIG. 17 is an example of a sequence diagram showing a procedure for registering content and web pages.
S1: The content transmission unit 25 specifies the URI and transmits the content to the content providing server 13 .
S2: The content receiving unit 56 of the content providing server 13 receives the content and stores it in the content management DB 4001 specified by the URI. Note that the content providing server 13 may store content in an arbitrary location and transmit the URI of the storage location to the content creating server 12 .
S3: The content transmission unit 25 sends the URI storing the content to the URI transmission unit 24 .
S4: The URI transmission unit 24 transmits the URI to the mail address of the person in charge 7 of the content user company.
S5: The URI receiving unit 41 of the content user company PC 15 receives the mail describing the URI and temporarily stores it in the RAM 303 or the like. Since the person in charge 7 of the content-using company opens the mail and displays the URI on the display 308, the operation input reception unit 42 receives the operation and copies the URI, for example.
S6: The person in charge 7 of the content-using company performs an operation to read out a desired web page from the web page DB 5001, and the operation input accepting unit 42 accepts the operation and reads out the web page.
S7: The person in charge 7 of the content-using company performs an operation of pasting the copied URI on the web page, and the operation input reception unit 42 sends the web page with the pasted URI to the web page transmission unit 43 .

なお、図17の手順ではメールアドレスを宛先にしてURIが送信されているが、コンテンツ作成サーバ12は一連の画像を送信した携帯端末17にURIを返信してもよい。例えば、HTTPなどの通信を利用すれば、画像の送信元の携帯端末17にURIを返信できる。この場合、撮像者8はメールアプリなどを開かずにURIを確認できる。 In the procedure of FIG. 17, the URI is sent with the mail address as the destination, but the content creation server 12 may return the URI to the portable terminal 17 that sent the series of images. For example, if communication such as HTTP is used, the URI can be sent back to the portable terminal 17 that sent the image. In this case, the photographer 8 can confirm the URI without opening an e-mail application or the like.

図18は、ユーザPC16がコンテンツを表示させる手順を示すシーケンス図の一例である。
S1:コンテンツ利用企業PC15のWebページ送信部43はURIが貼り付けられたWebページをWebサーバ14に送信する。
S2:Webサーバ14のWebページ受信部51はWebページを受信して、WebページをWebページDB6001に記憶させる。
S3:エンドユーザ6はユーザPC16を操作してコンテンツ利用企業のWebページを表示させる操作を行う。これにより、ユーザPC16のWebページ要求部45はホームページのアドレスなどを指定してWebサーバ14にWebページを要求する。
S4:Webページ提供部52はWebページDB6001から要求されたWebページを読み出す。このWebページにはコンテンツのURIが貼り付けられている。
S5:Webページ提供部52はWebページをユーザPC16のWebページ要求部45に送信する。
S6:ユーザPC16のWebページ要求部45はWebページを受信して、Webページ表示部46に送出する。これにより、ユーザPC16はコンテンツのURIが貼り付けられたWebページを表示できる。
S7:エンドユーザ6は、例えばWebページにおいて全天球画像の表示用のエリアとして確保された領域、コンテンツがリンクされた画像又は文字をマウスカーソルでクリックする。このようなコンテンツを表示させる操作を行うと、Webページ要求部45はURIを指定してコンテンツ提供サーバ13にコンテンツを要求する。
S8:コンテンツ提供サーバ13のコンテンツ提供部57はコンテンツ管理DB4001から指定されたコンテンツを読み出す。
S9:コンテンツ提供部57はコンテンツをユーザPC16に送信する。
S10:ユーザPC16のWebページ要求部45はコンテンツを受信して、Webページ表示部46に送出する。これにより、ユーザPC16は図3のようなコンテンツを表示できる。すなわち、マップ62と画像61が表示され、マップ内のルート63上の撮像位置をマウスなどでクリックしたり指でタップすると、その撮像位置の全天球画像を表示できる。
S11:コンテンツ提供部57はコンテンツが提供されたことを閲覧情報取得部55に通知する。閲覧情報取得部55はコンテンツの提供回数を1つ大きくする。また、閲覧情報取得部55は、閲覧時間と現在の時間帯を判断し、アカウント管理DB3002の対応する時間間隔の人数を1つ大きくする。コンテンツ提供サーバ13はコンテンツの提供回数とコンテンツのサイズに基づき課金金額を算出し、月末などのタイミングでコンテンツ利用企業に請求する。また、アカウント管理DB3002の閲覧時間と時間帯を有償又は無償でコンテンツ利用企業に提供してもよい。コンテンツ利用企業はWebページの改善などに閲覧時間と時間帯を利用できる。
FIG. 18 is an example of a sequence diagram showing a procedure for the user PC 16 to display content.
S1: The web page transmission unit 43 of the content user company PC 15 transmits the web page to which the URI is pasted to the web server 14 .
S2: The web page reception unit 51 of the web server 14 receives the web page and stores the web page in the web page DB 6001 .
S3: The end user 6 operates the user PC 16 to display the Web page of the content user company. As a result, the web page requesting unit 45 of the user PC 16 requests the web page from the web server 14 by designating the home page address and the like.
S4: Web page providing unit 52 reads the requested Web page from Web page DB 6001 . The URI of the content is pasted on this web page.
S5: Web page providing unit 52 transmits the Web page to Web page requesting unit 45 of user PC 16 .
S 6 : The web page requesting unit 45 of the user PC 16 receives the web page and sends it to the web page display unit 46 . Thereby, the user PC 16 can display the web page to which the URI of the content is pasted.
S7: The end user 6 clicks with the mouse cursor, for example, an area reserved as an area for displaying an omnidirectional image on a Web page, an image linked to content, or text. When such an operation for displaying content is performed, the web page requesting unit 45 designates a URI and requests the content from the content providing server 13 .
S8: The content providing unit 57 of the content providing server 13 reads out the designated content from the content management DB 4001 .
S9: The content providing unit 57 transmits the content to the user PC 16.
S10: The web page requesting unit 45 of the user PC 16 receives the content and sends it to the web page display unit 46. FIG. Thereby, the user PC 16 can display the content as shown in FIG. That is, a map 62 and an image 61 are displayed, and when an imaging position on the route 63 in the map is clicked with a mouse or the like or tapped with a finger, an omnidirectional image of that imaging position can be displayed.
S11: The content providing unit 57 notifies the viewing information obtaining unit 55 that the content has been provided. The browsing information acquisition unit 55 increases the number of times the content is provided by one. Also, the viewing information acquisition unit 55 determines the viewing time and the current time zone, and increments the number of people in the corresponding time interval in the account management DB 3002 by one. The content providing server 13 calculates the charge amount based on the number of times the content is provided and the size of the content, and charges the content user company at the end of the month or the like. Also, the browsing time and time zone of the account management DB 3002 may be provided to the content user company for a charge or free of charge. Content-using companies can use the browsing time and time period to improve their web pages.

このような処理により、コンテンツを表示したエンドユーザ6は図3のメニュー66を操作して上下左右の一部画像を表示させたり、動画のように撮像位置の異なる全天球画像を次々と表示させたりすることができる。 Through such processing, the end user 6 who has displayed the content operates the menu 66 in FIG. 3 to display partial images in the vertical and horizontal directions, or to display omnidirectional images of different imaging positions one after another, such as moving images. You can let

以上説明したように、本実施例のWebサービスシステム100では、撮像者8が1回の撮像で全天球画像を撮像できる。誰もが簡単に周囲全方位の空間を表現した臨場感あるコンテンツを作成して公開できる。全天球画像パノラマ画像は、マップ62の撮像位置64に埋め込まれているので、エンドユーザ6はどの場所の全天球画像であるかを一目で把握できる。また、マップ62にはルート63が表示されているので、全天球画像で確認できるルートをエンドユーザ6は一目で把握できる。エンドユーザ6に対し全方位のパノラマ画像を再生させることで、ルート上を周遊している疑似体験を提供できる。また、コンテンツ提供サーバ13の運営者はコンテンツのサイズやコンテンツの提供回数に応じた料金をコンテンツ利用企業に請求できる。 As described above, in the web service system 100 of this embodiment, the photographer 8 can capture an omnidirectional image in one shot. Anyone can easily create and publish immersive content that expresses the space in all directions. Since the omnidirectional panorama image is embedded in the imaging position 64 of the map 62, the end user 6 can grasp at a glance the location of the omnidirectional image. In addition, since the route 63 is displayed on the map 62, the end user 6 can grasp at a glance the route that can be confirmed with the omnidirectional image. By having the end user 6 reproduce an omnidirectional panorama image, it is possible to provide a simulated experience of traveling around the route. Also, the operator of the content providing server 13 can charge the content user company for a fee according to the size of the content and the number of times the content is provided.

実施例1に示したように、撮像者8は任意の場所で周囲を撮像できるが、通行人の顔が写ってしまう可能性がある。人物を特定できる個人特定情報が通行人が撮像されるとプライバシーの保護上、好ましくない。そこで、本実施例では、通行人の顔に画像処理を施して、人物の特定・判別を困難にするWebサービスシステム100について説明する。 As shown in the first embodiment, the photographer 8 can take an image of the surroundings at an arbitrary location, but there is a possibility that the face of a passerby will be captured. It is not preferable from the standpoint of privacy protection if a passerby is imaged with personal identification information that can identify a person. Therefore, in this embodiment, a Web service system 100 that performs image processing on the face of a passerby to make it difficult to identify and distinguish a person will be described.

図19は、本実施例のコンテンツ作成サーバ12の機能ブロック図の一例を示す。また、本実施例において、図11において同一の符号を付した構成要素は同様の機能を果たすので、主に本実施例の主要な構成要素についてのみ説明する場合がある。図19では、コンテンツ作成サーバ12が画像処理部27を有する。なお、画像処理は携帯端末17又はコンテンツ提供サーバ13で行ってもよい。 FIG. 19 shows an example of a functional block diagram of the content creation server 12 of this embodiment. Also, in this embodiment, since the constituent elements denoted by the same reference numerals in FIG. 11 perform the same functions, only the main constituent elements of this embodiment may be mainly described. In FIG. 19 , the content creation server 12 has an image processing section 27 . Note that the image processing may be performed by the mobile terminal 17 or the content providing server 13 .

画像処理部27は、図8に示されているCPU301からの命令等によって実現され、画像から顔を検出して、顔にぼかし処理を施す。顔をぼかすとは個人の特定・判別を困難にすることをいう。このようなぼかし処理としては、平滑化フィルタで平滑化してもよいし、顔の部分に顔を隠すための画像を重畳させてもよい。なお、顔の検出は、矩形枠を画像に設定し例えばHaar-Like特徴量やFOG特徴量で矩形枠の評価値を算出することで行う。矩形枠をずらしながら特徴量による評価を行うことで、顔が撮像されている可能性が高い矩形枠を特定できる。 The image processing unit 27 is implemented by a command or the like from the CPU 301 shown in FIG. 8, detects a face from an image, and blurs the face. Blurring the face means making it difficult to identify and discriminate an individual. As such blurring processing, smoothing with a smoothing filter may be performed, or an image for hiding the face may be superimposed on the face portion. Note that face detection is performed by setting a rectangular frame in an image and calculating an evaluation value of the rectangular frame using, for example, a Haar-Like feature amount or an FOG feature amount. By performing evaluation based on the feature amount while shifting the rectangular frame, it is possible to identify a rectangular frame that is highly likely to contain an image of a face.

図20は、コンテンツ作成サーバ12がコンテンツを作成する手順を示すシーケンス図の一例である。
S4-2:画像処理部27は一連の画像の全てに対し画像処理を施す。なお、画像処理のタイミングはマップ62の取得前に行う必要はなく、コンテンツ送信前に行えばよい。
FIG. 20 is an example of a sequence diagram showing a procedure for content creation server 12 to create content.
S4-2: The image processing unit 27 applies image processing to all of the series of images. Note that the timing of image processing does not have to be performed before acquisition of the map 62, and may be performed before content transmission.

図21は、プライバシー保護のための画像処理を説明する図の一例である。図21(a)は画像処理前の一部画像を、図21(b)は画像処理後の一部画像をそれぞれ示す。図21(b)では、二人の通行人67の顔の認識が困難になっている。 FIG. 21 is an example of a diagram for explaining image processing for privacy protection. FIG. 21(a) shows a partial image before image processing, and FIG. 21(b) shows a partial image after image processing. In FIG. 21(b), it is difficult to recognize the faces of two passers-by 67. In FIG.

なお、図21では通行人67の顔のみが画像処理されているが、看板や大型液晶ディスプレイなどに人が映っている場合には、これらにも画像処理が施される。これにより広告の肖像権にも配慮できる。また、個人特定情報は顔に限られず、車のナンバープレートなど、個人を特定することが可能な情報を検出して画像処理を施すことが好ましい。 In FIG. 21, only the face of the passerby 67 is image-processed, but if a person is shown on a signboard or a large-sized liquid crystal display, image processing is also applied to these. This makes it possible to consider the portrait rights of advertisements. Further, the personal identification information is not limited to the face, and it is preferable to detect information that can identify an individual, such as a license plate of a car, and apply image processing.

以上説明したように、本実施例のWebサービスシステム100は、実施例1の効果に加え、撮像者8が通行人67を撮像してもプライバシーを保護できる。 As described above, the web service system 100 of this embodiment can protect privacy even if the photographer 8 captures an image of the passerby 67 in addition to the effects of the first embodiment.

エンドユーザ6が全天球画像をユーザPC16で表示させる際、様々な被写体が映っているが、エンドユーザ6がそれらの被写体の情報を表示できれば便利である。そこで、本実施例では、撮像された被写体の情報を、全天球画像に埋め込むWebサービスシステム100について説明する。 When the end user 6 displays an omnidirectional image on the user PC 16, various subjects are shown, and it would be convenient if the end user 6 could display information on those subjects. Therefore, in this embodiment, a Web service system 100 for embedding information of a photographed subject in an omnidirectional image will be described.

図22は、本実施例のコンテンツ作成サーバ12の機能ブロック図の一例を示す。図22では、コンテンツ作成サーバ12が被写体情報埋め込み部28を有する。被写体情報埋め込み部28は、図8に示されているCPU301からの命令等によって実現され、全天球画像から建築物を検出し、該建築物の地図上の位置を特定し、地図データDB3001から取得した該建築物の建物情報及び次述する広告情報DB3003から取得した広告情報を建築物に埋め込む。被写体に関して被写体が何かをユーザに把握させたりユーザに提供される情報を被写体情報と称する。建物情報と広告情報の少なくとも一方は被写体情報の具体例の1つである。被写体情報埋め込み部28は被写体情報関連付け手段の一例である。 FIG. 22 shows an example of a functional block diagram of the content creation server 12 of this embodiment. In FIG. 22 , the content creation server 12 has a subject information embedding section 28 . The subject information embedding unit 28 is implemented by commands from the CPU 301 shown in FIG. The acquired building information of the building and the advertisement information acquired from the advertisement information DB 3003 described below are embedded in the building. Information that allows a user to grasp what a subject is or that is provided to the user is referred to as subject information. At least one of building information and advertisement information is one specific example of subject information. The subject information embedding unit 28 is an example of subject information associating means.

また、本実施例のコンテンツ作成サーバ12は、記憶部3000に広告情報DB3003を有している。広告情報DBには表3に示すように広告情報テーブルが登録されている。 Also, the content creation server 12 of this embodiment has an advertisement information DB 3003 in the storage unit 3000 . An advertisement information table as shown in Table 3 is registered in the advertisement information DB.

Figure 0007192923000003
広告情報テーブルには、建築物ID、広告企業ID、広告情報、及び、提供回数が登録されている。建築物IDはマップ上の建築物を一意に識別するための識別情報(被写体識別情報の一例)である。広告企業IDは広告を出す広告企業を一意に識別するための識別情報である。広告情報は広告企業が表示する広告の内容(表3では広告内容が表示されるURL)が記述されている。提供回数は、広告情報がエンドユーザ6により選択された回数である。
Figure 0007192923000003
Building IDs, advertising company IDs, advertising information, and the number of times provided are registered in the advertising information table. The building ID is identification information (an example of subject identification information) for uniquely identifying a building on the map. The advertising company ID is identification information for uniquely identifying an advertising company that advertises. The advertisement information describes the content of the advertisement displayed by the advertising company (in Table 3, the URL for displaying the advertisement content). The number of times of provision is the number of times the advertisement information is selected by the end user 6 .

続いて、図23,24を用いて被写体情報の埋め込みについて説明する。図23は、建築物の地図上の位置の特定方法を説明する図の一例である。図23(a)には全天球画像のうち一部画像が示されている。被写体情報埋め込み部28は例えばエッジ処理を施して、被写体のうち最も撮像位置が高い画素を水平方向にトレースする。これにより、図23(a)のトレース線68が得られる。被写体の垂直方向の画素位置が閾値82以上の場所に建築物があると判断できる。また、被写体の画素位置が閾値82未満になった場所から次に、被写体の画素位置が閾値82未満になるまでが1つの建築物である。建築物が連続しているような場所に対応するため、垂直方向に連続したエッジをハフ変換などで検出し、エッジが上空から地面近くまで連続している場所で建築物を分離してもよい。また、建物の色で建築物を分離してもよい。図23(a)では建築物71~73が検出されたものとする。 Next, embedding of subject information will be described with reference to FIGS. FIG. 23 is an example of a diagram illustrating a method of specifying the position of a building on a map. Part of the omnidirectional image is shown in FIG. 23(a). The object information embedding unit 28 performs edge processing, for example, and horizontally traces the pixel of the object with the highest imaging position. This results in the trace line 68 of FIG. 23(a). It can be determined that there is a building at a place where the pixel position of the object in the vertical direction is equal to or greater than the threshold value 82 . Also, the area from the point where the pixel position of the object becomes less than the threshold value 82 to the point where the pixel position of the object becomes less than the threshold value 82 is one building. In order to deal with places where buildings are continuous, vertical continuous edges may be detected by Hough transform, etc., and buildings may be separated where the edges are continuous from the sky to near the ground. . Alternatively, buildings may be separated by building color. Assume that buildings 71 to 73 are detected in FIG. 23(a).

また、図23(b)に示すように、全天球画像には東西南北の方位が添付されている。また、撮像位置も添付されている。よって、撮像位置から見てどの方向に建築物71~73があるかは明らかになっている。 In addition, as shown in FIG. 23B, the omnidirectional image is attached with north, south, east, and west directions. Also attached is the imaging position. Therefore, it is clear in which direction the buildings 71 to 73 are when viewed from the imaging position.

図23(c)は地図上における撮像範囲83を示す図の一例である。撮像位置から見た建築物71~73の方位が分かっているので、方位を地図に当てはめることで、地図上の建築物71~73を特定できる。例えば真北を基準にすると建築物71の方向は260度くらいであり、建築物72の方向は310度くらいであり、建築物73の方向は5度くらいである(時計回りを正)。 FIG. 23(c) is an example of a diagram showing an imaging range 83 on the map. Since the azimuths of the buildings 71 to 73 viewed from the imaging position are known, the buildings 71 to 73 can be specified on the map by applying the azimuths to the map. For example, with true north as a reference, the direction of the building 71 is about 260 degrees, the direction of the building 72 is about 310 degrees, and the direction of the building 73 is about 5 degrees (clockwise is positive).

被写体情報埋め込み部28は、地図上の建築物71~73を特定すると、地図データDB3001から各建築物の建物情報を取得して、全天球画像の建築物に埋め込む。なお、建物情報は、例えばビル名、ビルに入っているテナント名等である。 After identifying the buildings 71 to 73 on the map, the subject information embedding unit 28 acquires the building information of each building from the map data DB 3001 and embeds it in the building of the omnidirectional image. The building information is, for example, the name of the building, the names of tenants in the building, and the like.

具体的には、エンドユーザ6がコンテンツに含まれる画像の建築物71~73をマウスでクリック、指でタップ、マウスオーバーなどすることで、建物情報が表示されるように、JavaScript(登録商標)などのコードがコンテンツに記述される。 Specifically, when the end user 6 clicks with the mouse, taps with the finger, or moves the mouse over the buildings 71 to 73 in the images included in the content, the building information is displayed using JavaScript (registered trademark). A code such as is described in the content.

建築物71~73の広告情報が広告情報DBに登録されている場合、同様に、広告情報が埋め込まれる。ただし、広告情報が埋め込まれた場合、広告企業IDと広告が選択された旨がコンテンツ提供サーバ13を通知先として通知されるJavaScript(登録商標)などのコードがコンテンツに記述される。 When the advertisement information of the buildings 71 to 73 is registered in the advertisement information DB, the advertisement information is similarly embedded. However, when advertisement information is embedded, a code such as JavaScript (registered trademark) for notifying the content providing server 13 of the fact that the advertising company ID and advertisement has been selected is described in the content.

図24は、被写体情報埋め込み部が全天球画像に被写体情報を埋め込む手順を示すフローチャート図の一例である。図24の手順は、コンテンツ作成サーバ12が画像を受信してから、コンテンツを送信するまでの間に開始される。 FIG. 24 is an example of a flowchart showing a procedure for embedding subject information in an omnidirectional image by the subject information embedding unit. The procedure of FIG. 24 is started after the content creation server 12 receives the image and before it transmits the content.

まず、被写体情報埋め込み部28は全天球画像から建築物を検出する(S10)。 First, the subject information embedding unit 28 detects a building from the omnidirectional image (S10).

次に、被写体情報埋め込み部28は全天球画像の方位に基づき、撮像位置から見た各建築物の方位を決定する(S20)。 Next, the subject information embedding unit 28 determines the orientation of each building viewed from the imaging position based on the orientation of the omnidirectional image (S20).

次に、被写体情報埋め込み部28は撮像位置と各建築物の方位に基づき各建築物の地図上の位置を決定する(S30)。 Next, the subject information embedding unit 28 determines the position of each building on the map based on the imaging position and the orientation of each building (S30).

次に、被写体情報埋め込み部28は地図データDB3001から地図上で特定された建築物の建物情報を取得する(S40)。 Next, the subject information embedding section 28 acquires the building information of the building specified on the map from the map data DB 3001 (S40).

次に、被写体情報埋め込み部28は建築物IDに対応付けられた広告情報を広告情報DB3003から読み出す(S50)。 Next, the subject information embedding section 28 reads the advertisement information associated with the building ID from the advertisement information DB 3003 (S50).

次に、被写体情報埋め込み部28は建物情報及び広告情報を全天球画像の建築物に埋め込む(S60)。 Next, the subject information embedding section 28 embeds the building information and the advertisement information in the building of the omnidirectional image (S60).

図25は、エンドユーザ6が建築物72をマウスカーソル69でクリックした場合に表示される被写体情報81の一例を示す。図25では、ビル名、ビルに入っているテナント名、及び、広告ボタン75が表示されている。エンドユーザ6は例えば飲食店の情報を更に知りたい場合、広告ボタン75を選択する。広告ボタン75には広告情報DB3003の広告情報(広告URL)が埋め込まれており、ユーザPC16は飲食店の詳しい情報が記載されたWebページを表示することができる。 FIG. 25 shows an example of subject information 81 displayed when the end user 6 clicks the building 72 with the mouse cursor 69. FIG. In FIG. 25, the building name, tenant names in the building, and an advertisement button 75 are displayed. The end user 6 selects the advertisement button 75, for example, when wanting to know more information about restaurants. Advertisement information (advertisement URL) of the advertisement information DB 3003 is embedded in the advertisement button 75, and the user PC 16 can display a Web page describing detailed information about the restaurant.

また、広告ボタン75が選択された場合、ユーザPC16はJavaScript(登録商標)などのコードを実行して、コンテンツ提供サーバ13に広告企業IDと広告が表示された旨をコンテンツ提供サーバ13に通知する。コンテンツ提供サーバ13の閲覧情報取得部55はこの通知回数をカウントして広告情報DB3003の提供回数を更新する。これにより、Webサービスシステム100の運営者などは、広告の提供回数などに応じた広告費を広告企業に要求できる。 When the advertisement button 75 is selected, the user PC 16 executes a code such as JavaScript (registered trademark) and notifies the content providing server 13 of the advertising company ID and the fact that the advertisement has been displayed. . The viewing information acquisition unit 55 of the content providing server 13 counts the number of notifications and updates the number of times of provision of the advertisement information DB 3003 . As a result, the operator of the web service system 100 or the like can request the advertising company for an advertising fee according to the number of times the advertisement is provided.

以上説明したように、本実施例のWebサービスシステム100は、実施例1の効果に加え、全天球画像の被写体に被写体の情報を埋め込むので、エンドユーザ6は被写体の情報を表示させることができる。 As described above, the Web service system 100 of this embodiment embeds subject information in the subject of the omnidirectional image in addition to the effect of the first embodiment, so that the end user 6 can display the subject information. can.

<Webサービスシステム100の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Application Example of Web Service System 100>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.

例えば、本実施形態では、コンテンツ提供サーバ13がコンテンツ利用企業を特定しているが、コンテンツの利用者を特定しなくてもよい。すなわち、一般消費者などが画像をコンテンツ作成サーバ12に送信して、自分のホームページなどで提供することが可能である。 For example, in the present embodiment, the content providing server 13 specifies the company using the content, but it does not have to specify the user of the content. That is, general consumers can transmit images to the content creation server 12 and provide them on their home pages.

また、上記の実施例では野外の撮像と野外の画像の公開を例に説明したが、撮像場所は室内でもよい。この場合、撮像位置は上記のIMESの他、iBeacon(登録商標)などを利用した位置情報を用いてよい。 Further, in the above-described embodiment, an example of outdoor imaging and outdoor image disclosure has been described, but the imaging location may be indoors. In this case, position information using iBeacon (registered trademark) or the like may be used as the imaging position in addition to the above-mentioned IMES.

Webサービスシステム100が室内の画像を公開する場合も、屋外と同様にコンテンツを作成できる。図26はユーザPC16で表示されるコンテンツの一例を示す図である。図26のコンテンツは、全天球画像を表示する表示領域401と、室内地図を表示する表示領域402とを有している。 When the Web service system 100 publishes an indoor image, content can be created in the same manner as outdoors. FIG. 26 is a diagram showing an example of content displayed on the user PC 16. As shown in FIG. The content in FIG. 26 has a display area 401 that displays an omnidirectional image and a display area 402 that displays an indoor map.

まず、全天球画像の撮像位置が分かっているので、室内地図における座標(例えば、室内地図の左上を原点とする二次元座標系の座標)が位置情報と対応付けられていれば、全天球画像が室内地図内のどの座標と対応付けられるかは明らかである。また、全天球画像には東西南北の方位が添付されており、室内地図の東西南北も通常は知られている。したがって、コンテンツ作成サーバ12は室内地図において撮像位置を特定でき、さらに撮像装置11の正面方向を特定できるため撮像方向も明らかとなる。 First, since the imaging position of the omnidirectional image is known, if the coordinates on the indoor map (for example, the coordinates of a two-dimensional coordinate system with the upper left corner of the indoor map as the origin) are associated with the position information, the omnidirectional image can be obtained. It is clear to which coordinates in the indoor map the spherical image is associated. In addition, the omnidirectional images are attached with the north, south, east, and west directions, and the north, south, east, west directions of the indoor map are usually known. Therefore, the content creation server 12 can specify the imaging position on the indoor map, and furthermore, can specify the front direction of the imaging device 11, so the imaging direction is also clarified.

このような情報を利用して、室内地図を表示する表示領域402には、全天球画像が撮影された室内地図上に撮像位置を表す図形403、及び、全天球画像のうち表示領域401で表示されている方向(画角)を示す図形404が表示される。補足すると、表示領域401に表示されている全天球画像の一部画像ImはユーザPC16にとって既知なので、ユーザPC16は撮像装置11の撮像方向を基準にして表示されている方向を特定できる。 Using such information, in a display area 402 for displaying an indoor map, a graphic 403 representing the imaging position on the indoor map where the omnidirectional image was captured, and a display area 401 of the omnidirectional image. A graphic 404 indicating the direction (angle of view) displayed by is displayed. Supplementally, since the partial image Im of the omnidirectional image displayed in the display area 401 is already known to the user PC 16, the user PC 16 can identify the displayed direction based on the imaging direction of the imaging device 11.

したがって、表示領域401で表示されている全天球画像の撮像位置に応じて、PC16は表示領域402における図形403を強調して表示できる(この場合、図形404で強調されるが、色を変えるなどすることで強調してもよい)。また、表示領域401で表示されている全天球画像の一部画像Imに応じて、PC16は表示領域402における図形404を一部画像Imに対応した方向に変更できる。したがって、ユーザPC16を閲覧しているユーザは、表示領域401で表示されている画像が室内地図上のどの位置で撮影されており、かつ、どの方向が表示領域401に表示されているかを容易に把握することができる。 Therefore, according to the imaging position of the omnidirectional image displayed in the display area 401, the PC 16 can emphasize and display the figure 403 in the display area 402 (in this case, the figure 404 is emphasized, but the color is changed). etc.). Further, according to the partial image Im of the omnidirectional image displayed in the display area 401, the PC 16 can change the graphic 404 in the display area 402 in the direction corresponding to the partial image Im. Therefore, the user browsing the user PC 16 can easily know where on the indoor map the image displayed in the display area 401 was taken and in which direction the image is displayed in the display area 401. can grasp.

また、図26の表示領域401には好ましい又は可能な移動方向を示す図形405が表示されている。移動方向とはユーザが室内を移動したと仮定した場合の表現であり、ユーザが実際に室内を移動するわけではない。ユーザPC16は現在の全天球画像の撮像位置と隣接した撮像位置を結ぶ直線407を例えば室内地図上で算出し、直線407が実在すれば全天球画像に撮像されているはずの場所に図形405を表示する。直線407の方位が推定できるので、全天球画像のこの方位の路面付近の緯度に図形405を重ねて表示する。こうすることで、表示領域401の全天球画像には隣接する撮像位置の方向が図形405で表示される。 Also, in the display area 401 of FIG. 26, a graphic 405 indicating a preferred or possible direction of movement is displayed. The movement direction is an expression when it is assumed that the user moves inside the room, and does not mean that the user actually moves inside the room. The user PC 16 calculates a straight line 407 connecting the current imaging position of the omnidirectional image and the adjacent imaging position, for example, on an indoor map. 405 is displayed. Since the azimuth of the straight line 407 can be estimated, a figure 405 is superimposed on the latitude near the road surface of this azimuth in the omnidirectional image. By doing so, the direction of the adjacent imaging position is displayed in the omnidirectional image in the display area 401 as a figure 405 .

また、コンテンツ作成サーバ12は予め図形405に室内地図上の図形406を撮像位置とする全天球画像を関連付けておく(例えば、リンクを埋め込んでおく)。 In addition, the content creation server 12 associates the figure 405 with an omnidirectional image in which the figure 406 on the indoor map is taken as an imaging position in advance (for example, a link is embedded).

ユーザが図形405を選択すると、ユーザPC16は関連づけを検出して表示領域401に表示する全天球画像を、移動方向を示す図形405の先にあって図形406を撮像位置とする他の全天球画像に切り替える。例えば、図26において図形405が選択された場合、室内地図上の図形406の位置で撮影された全天球画像を表示する。 When the user selects the figure 405, the user PC 16 detects the association and displays the omnidirectional image displayed in the display area 401 in another omnidirectional image beyond the figure 405 indicating the movement direction and having the figure 406 as the imaging position. Switch to the sphere image. For example, when figure 405 is selected in FIG. 26, an omnidirectional image captured at the position of figure 406 on the indoor map is displayed.

また、コンテンツ作成サーバ12が、移動方向を表す図形405をユーザを誘導したい表示領域401の方向にだけ表示することで、ユーザに好ましい順番で全天球画像を閲覧させることができる。 In addition, the content creation server 12 displays the graphic 405 representing the moving direction only in the direction of the display area 401 to guide the user, so that the user can browse the omnidirectional images in a preferred order.

なお、屋外の場合と同様に、ユーザが室内地図上の任意の撮像位置を表す図形403,406を選択することで、表示領域401にはユーザが選択した撮像位置で撮像された全天球画像が表示される。この場合、コンテンツ作成サーバ12は予め各撮像位置を表す図形403,406に全天球画像を関連付けておく。 As in the case of outdoors, when the user selects figures 403 and 406 representing arbitrary imaging positions on the indoor map, the display area 401 displays an omnidirectional image captured at the imaging position selected by the user. is displayed. In this case, the content creation server 12 associates the omnidirectional images with the figures 403 and 406 representing the imaging positions in advance.

また、上記の実施例では撮像者が歩行していたが、撮像装置11を車両などに搭載して、車両から周囲を撮像してもよい。 Further, in the above embodiment, the person who takes the image is walking, but the imaging device 11 may be mounted on a vehicle to image the surroundings from the vehicle.

また、地上に限られず、パラシュートによる落下時やパラグライダーなどによる飛行時に空撮することもできる。また、プールの中や海中などで撮像することもできる。このように地上以外の撮像では、経度・緯度だけでなく高度情報が測定されて、画像に添付されていることが好ましい。 In addition, it is possible to take aerial shots not only on the ground, but also when falling with a parachute or flying with a paraglider. In addition, it is possible to take an image in a pool or in the sea. In this way, when capturing images other than on the ground, it is preferable that not only longitude and latitude but also altitude information be measured and attached to the image.

また、上記の実施例ではユーザPC16はWebページを経由してコンテンツを表示したが、Webページを経由せずに直接、コンテンツを表示してもよい。 Also, in the above embodiment, the user PC 16 displays the content via the web page, but the content may be displayed directly without via the web page.

また、上記の実施例では、静止画を主な例として説明したが、動画がコンテンツとして提供される場合は、コンテンツ作成サーバ12が動画からいくつかのシーンを抽出してマップ62に撮像位置に強調してもよい。いくつかのシーンは、例えば、画質の評価値が基準以上の全天球画像などであるが、コンテンツ利用企業の担当者が選択してもよい。 Further, in the above embodiment, still images were mainly explained as an example, but when a moving image is provided as content, the content creation server 12 extracts several scenes from the moving image and places them on the map 62 at the shooting positions. can be emphasized. Some of the scenes are, for example, omnidirectional images whose image quality evaluation value is equal to or higher than the standard, but may be selected by the person in charge of the content user company.

なお、データ付き画像送信部34は送信手段の一例であり、データ付き画像受信部23は受信手段の一例であり、マップ取得部22は地図データ取得手段の一例であり、ルート作成部21は経路情報作成手段の一例であり、コンテンツ提供部57はコンテンツ提供手段の一例である。URI送信部24はリンク情報送信手段の一例であり、Webページ受信部51は公開情報受信手段の一例であり、Webページ提供部52は公開情報提供手段の一例である。閲覧情報取得部55はカウント手段の一例であり、画像処理部27は画像処理手段の一例であり、画像埋め込み部26は画像関連付け手段の一例であり、被写体情報埋め込み部28は被写体情報関連付け手段の一例である。画像作成部31は撮像手段の一例であり、送受信部33は第2の送信手段の一例であり、位置情報取得部35は位置検出手段の一例であり、操作入力受付部37は設定受付手段の一例である。地図データDB3001は地図データ記憶手段の一例であり、広告情報DB3003は広告情報記憶手段の一例である。Webサービスシステム100はサービスシステムの一例であり、Webサービスシステム100が行う方法はサービス提供方法の一例である。 The data-attached image transmission unit 34 is an example of transmission means, the data-attached image reception unit 23 is an example of reception means, the map acquisition unit 22 is an example of map data acquisition means, and the route creation unit 21 is an example of a route It is an example of information creating means, and the content providing unit 57 is an example of content providing means. The URI transmission unit 24 is an example of link information transmission means, the web page reception unit 51 is an example of public information reception means, and the web page provision unit 52 is an example of public information provision means. The browsing information acquisition unit 55 is an example of counting means, the image processing unit 27 is an example of image processing means, the image embedding unit 26 is an example of image association means, and the subject information embedding unit 28 is an example of subject information association means. An example. The image creation unit 31 is an example of an imaging unit, the transmission/reception unit 33 is an example of a second transmission unit, the position information acquisition unit 35 is an example of a position detection unit, and the operation input reception unit 37 is an example of a setting reception unit. An example. The map data DB 3001 is an example of map data storage means, and the advertisement information DB 3003 is an example of advertisement information storage means. The web service system 100 is an example of a service system, and the method performed by the web service system 100 is an example of a service providing method.

6 エンドユーザ
7 担当者
8 撮像者
9 アクセスポイント
11 撮像装置
12 コンテンツ作成サーバ
13 コンテンツ提供サーバ
14 Webサーバ
15 コンテンツ利用企業PC
16 ユーザPC
17 携帯端末
6 end user 7 person in charge 8 photographer 9 access point 11 imaging device 12 content creation server 13 content providing server 14 web server 15 content user company PC
16 User PC
17 mobile terminal

特表平7-504285号公報Japanese Patent Publication No. 7-504285

Claims (18)

パノラマ画像と、前記パノラマ画像が撮影された際の撮影位置を含む図と、を記憶する記憶部を有し、
要求に基づいて、前記記憶部から該当するパノラマ画像の一部である一部画像と、前記該当するパノラマ画像の撮影位置を含む図と、を読み出し、
前記読み出された図には、前記該当するパノラマ画像が撮影された位置を示す図形が含まれており、
前記読み出された一部画像が表示される際の前記一部画像の表示範囲に対応する図形が、前記読み出された図に表示され、
前記読み出された図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形を、前記読み出された一部画像に表示することを特徴とする装置。
a storage unit that stores a panorama image and a diagram including the photographing position when the panorama image was photographed;
based on the request, reading a partial image that is a part of the applicable panoramic image and a diagram including the photographing position of the applicable panoramic image from the storage unit;
The read diagram includes a figure indicating the position where the corresponding panoramic image was taken,
displaying a graphic corresponding to a display range of the partial image when the read partial image is displayed in the read diagram;
When the read-out diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images were photographed, it is possible to move from the photographing position of the displayed partial image to another photographing position. and displaying a figure indicating the direction in the partial image that has been read out .
複数の撮影位置を示す図形のうち、隣接した前記複数の撮影位置を示す図形を結ぶ直線を、前記読み出された図に表示することを特徴とする請求項1に記載の装置。 2. The apparatus according to claim 1, wherein straight lines connecting adjacent figures indicating said plurality of photographing positions among figures indicating said plurality of photographing positions are displayed in said read -out figure. 前記直線は、前記一部画像の表示範囲に対応する図形の前面に表示される、請求項2に記載の装置。 3. The device according to claim 2, wherein said straight line is displayed in front of a figure corresponding to a display range of said partial image. 前記移動可能な方向を示す図形の先には、移動先の撮影位置があり、前記図形は前記移動先で撮影されたパノラマ画像が関連付いている、請求項1~3のいずれか1項に記載の装置。4. The method according to any one of claims 1 to 3, wherein the graphic indicating the direction in which the movement is possible is preceded by a photographing position of a destination of movement, and the graphic is associated with a panoramic image photographed at the destination of movement. Apparatus as described. 前記表示された移動可能な方向を示す図形を選択すると、現在表示されている一部画像から前記関連付いている移動先のパノラマ画像の一部である一部画像に切り替えて表示される、請求項4に記載の装置。 When the displayed figure indicating the direction in which movement is possible is selected, the currently displayed partial image is switched to a partial image that is a part of the associated destination panorama image. Item 5. The device according to item 4. 前記読み出された図に前記撮影位置を示す複数の図形が含まれている場合に、前記移動可能な方向を示す図形は、任意の方向にのみ表示可能である、請求項1~5のいずれか1項に記載の装置。 6. The figure according to any one of claims 1 to 5, wherein when the read-out diagram contains a plurality of figures indicating the photographing position, the figure indicating the movable direction can be displayed only in an arbitrary direction. or 1. The device according to claim 1. 前記表示される前記一部画像の表示範囲に対応する図形は、強調して表示される、請求項1~6のいずれか1項に記載の装置。 7. The device according to any one of claims 1 to 6, wherein a figure corresponding to the display range of said partial image to be displayed is displayed with emphasis. 前記一部画像の表示範囲に対応する図形は、円における半径を示す2本の線と、その線の間にある円弧によって囲まれた扇型の図形である、請求項1~7のいずれか1項に記載の装置。 8. The graphic corresponding to the display range of the partial image is a fan-shaped graphic surrounded by two lines indicating the radius of a circle and an arc between the lines. 10. The apparatus of paragraph 1. 前記一部画像の表示範囲に対応する図形は、前記読み出された図を構成する要素の前面に表示される 、請求項1~8のいずれか1項に記載の装置。 The device according to any one of claims 1 to 8, wherein a figure corresponding to the display range of said partial image is displayed in front of elements constituting said readout figure. パノラマ画像と、前記パノラマ画像が撮影された際の撮影位置を含む図と、を記憶する記憶部を有し、
前記記憶されたパノラマ画像を表示する際に、パノラマ画像と、パノラマ画像が撮影された位置を示す図形に基づいて表示画像を生成し、
前記表示画像は、前記パノラマ画像の一部である一部画像と、前記パノラマ画像の撮影位置を含む図で構成され、
前記表示画像は、
前記図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形が、前記一部画像に表示され、
前記一部画像が表示される際の前記一部画像の表示範囲に対応する図形が、前記図に表示され、
前記生成された表示画像を出力することを特徴とする装置。
a storage unit that stores a panorama image and a diagram including the photographing position when the panorama image was photographed;
when displaying the stored panoramic image, generating a display image based on the panoramic image and a graphic indicating the position where the panoramic image was taken;
The display image is composed of a partial image that is a part of the panoramic image and a diagram including the photographing position of the panoramic image,
The display image is
In the case where the diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images are photographed, indicates a direction in which the photographing position of the displayed partial image can be moved to another photographing position. A figure is displayed in the partial image,
a figure corresponding to the display range of the partial image when the partial image is displayed is displayed in the diagram;
A device for outputting the generated display image .
パノラマ画像と、前記パノラマ画像が撮影された撮影位置を含む図と、を記憶する記憶部から、要求に基づいて、該当するパノラマ画像の一部である一部画像と、前記該当するパノラマ画像の撮影位置を示す図と、を読み出し、
前記読み出された図には、前記該当するパノラマ画像が撮影された位置を示す図形が含まれており、
前記読み出された一部画像が表示される際の前記一部画像の表示範囲に対応する図形が、前記読み出された図に表示され、
前記読み出された図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形を、前記読み出された一部画像に表示することを特徴とする方法。
Based on a request, a partial image that is a part of the applicable panoramic image and the image of the applicable panoramic image are obtained from a storage unit that stores a panoramic image and a view including the photographing position where the panoramic image was photographed. Read out a diagram showing the shooting position,
The read diagram includes a figure indicating the position where the corresponding panoramic image was taken,
displaying a graphic corresponding to a display range of the partial image when the read partial image is displayed in the read diagram;
When the read-out diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images were photographed, it is possible to move from the photographing position of the displayed partial image to another photographing position. and displaying a figure indicating the direction in the partial image that has been read out .
複数の撮影位置を示す図形のうち、隣接した前記複数の撮影位置を示す図形を結ぶ直線を、前記読み出された図に表示することを特徴とする請求項11に記載の方法。 12. The method according to claim 11 , wherein straight lines connecting adjacent figures indicating said plurality of photographing positions among figures indicating said plurality of photographing positions are displayed in said read -out figure. パノラマ画像と、前記パノラマ画像が撮影された際の撮影位置を含む図と、を記憶する記憶部に基づいて、
前記記憶されたパノラマ画像を表示する際に、パノラマ画像と、パノラマ画像が撮影された位置を示す図形に基づいて表示画像を生成し、
前記表示画像は、前記パノラマ画像の一部である一部画像と、前記パノラマ画像の撮影位置を含む図で構成され、
前記表示画像は、
前記図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形が、前記一部画像に表示され、
前記一部画像が表示される際の前記一部画像の表示範囲に対応する図形が、前記図に表示され、
前記生成された表示画像を出力することを特徴とする方法。
Based on a storage unit that stores a panorama image and a diagram including the photographing position when the panorama image was photographed,
when displaying the stored panoramic image, generating a display image based on the panoramic image and a graphic indicating the position where the panoramic image was taken;
The display image is composed of a partial image that is a part of the panoramic image and a diagram including the photographing position of the panoramic image,
The display image is
In the case where the diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images are photographed, indicates a direction in which the photographing position of the displayed partial image can be moved to another photographing position. A figure is displayed in the partial image,
a figure corresponding to the display range of the partial image when the partial image is displayed is displayed in the diagram;
and outputting the generated display image .
装置で実行されるプログラムであって、
前記装置は、パノラマ画像と、前記パノラマ画像が撮影された際の撮影位置を含む図と、を記憶する記憶部を有し、
前記装置に、
要求に基づいて、前記記憶部から該当するパノラマ画像の一部である一部画像と、前記該当するパノラマ画像の撮影位置を含む図と、を読み出させ、
前記読み出された図には、前記該当するパノラマ画像が撮影された位置を示す図形が含まれており、
前記読み出された一部画像が表示される際の前記一部画像の表示範囲に対応する図形を、前記読み出された図に表示させ、
前記読み出された図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形を、前記読み出された一部画像に表示させることを特徴とするプログラム。
A program running on a device, comprising:
The device has a storage unit that stores a panoramic image and a diagram including the photographing position when the panoramic image was photographed,
to said device,
based on the request, reading out from the storage unit a partial image that is a part of the applicable panoramic image and a diagram including the photographing position of the applicable panoramic image;
The read diagram includes a figure indicating the position where the corresponding panoramic image was taken,
displaying a graphic corresponding to a display range of the partial image when the partial image is displayed on the read diagram;
When the read-out diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images were photographed, it is possible to move from the photographing position of the displayed partial image to another photographing position. A program characterized by displaying a figure indicating a direction in the read partial image .
複数の撮影位置を示す図形のうち、隣接した前記複数の撮影位置を示す図形を結ぶ直線を、前記読み出された図に表示することを特徴とする請求項14に記載のプログラム。 15. The program according to claim 14 , wherein straight lines connecting adjacent figures indicating said plurality of photographing positions among figures indicating said plurality of photographing positions are displayed in said read diagram . 装置に、
パノラマ画像と、前記パノラマ画像が撮影された際の撮影位置を含む図と、を記憶する記憶部に基づいて、
前記記憶されたパノラマ画像を表示する際に、パノラマ画像と、パノラマ画像が撮影された位置を示す図形に基づいて表示画像を生成させ、
前記表示画像は、前記パノラマ画像の一部である一部画像と、前記パノラマ画像の撮影位置を含む図で構成され、
前記表示画像は、
前記図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形が、前記一部画像に表示され、
前記一部画像が表示される際の前記一部画像の表示範囲に対応する図形が、前記図に表示され、
前記生成された表示画像を出力させるプログラム
to the device,
Based on a storage unit that stores a panorama image and a diagram including the photographing position when the panorama image was photographed,
when displaying the stored panoramic image, generating a display image based on the panoramic image and a graphic indicating the position where the panoramic image was shot;
The display image is composed of a partial image that is a part of the panoramic image and a diagram including the photographing position of the panoramic image,
The display image is
In the case where the diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images are photographed, indicates a direction in which the photographing position of the displayed partial image can be moved to another photographing position. A figure is displayed in the partial image,
a figure corresponding to the display range of the partial image when the partial image is displayed is displayed in the diagram;
A program for outputting the generated display image .
端末とサーバとを有するシステムであって、
前記サーバは、パノラマ画像と、前記パノラマ画像が撮影された撮影位置を含む図と、を記憶する記憶部を有し、
前記端末からの要求に基づいて、前記記憶部から該当するパノラマ画像の一部である一部画像と、前記該当するパノラマ画像の撮影位置を含む図と、を読み出し、
前記読み出された図には、前記該当するパノラマ画像が撮影された位置を示す図形が含まれており、
前記読み出された一部画像が前記端末により表示される際の前記一部画像の表示範囲に対応する図形が、前記読み出された図に表示され、
前記読み出された図に複数のパノラマ画像が撮影された際の撮影位置を示す複数の図形が含まれている場合に、前記表示される一部画像の撮影位置から他の撮影位置に移動可能な方向を示す図形を、前記読み出された一部画像に表示することを特徴とするシステム。
A system having a terminal and a server,
The server has a storage unit that stores a panorama image and a diagram including a photographing position where the panorama image was photographed,
based on a request from the terminal, reads out from the storage unit a partial image that is a part of the corresponding panoramic image and a diagram including the photographing position of the corresponding panoramic image;
The read diagram includes a figure indicating the position where the corresponding panoramic image was taken,
displaying a graphic corresponding to a display range of the partial image when the read partial image is displayed by the terminal in the read diagram;
When the read-out diagram includes a plurality of figures indicating photographing positions when a plurality of panoramic images were photographed, it is possible to move from the photographing position of the displayed partial image to another photographing position. A system characterized by displaying a figure indicating a direction in the read partial image .
複数の撮影位置を示す図形のうち、隣接した前記複数の撮影位置を示す図形を結ぶ直線を、前記読み出された図に表示することを特徴とする請求項17に記載のシステム。 18. The system according to claim 17 , wherein straight lines connecting adjacent figures indicating said plurality of photographing positions among figures indicating said plurality of photographing positions are displayed in said read diagram .
JP2021116039A 2014-12-05 2021-07-14 Apparatus, method, program, system Active JP7192923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022196239A JP2023027216A (en) 2014-12-05 2022-12-08 Server, terminal, image transmission method, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014247212 2014-12-05
JP2014247212 2014-12-05
JP2020055428A JP6915716B2 (en) 2014-12-05 2020-03-26 Server, terminal, image transmission method, storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020055428A Division JP6915716B2 (en) 2014-12-05 2020-03-26 Server, terminal, image transmission method, storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022196239A Division JP2023027216A (en) 2014-12-05 2022-12-08 Server, terminal, image transmission method, and storage medium

Publications (2)

Publication Number Publication Date
JP2021170374A JP2021170374A (en) 2021-10-28
JP7192923B2 true JP7192923B2 (en) 2022-12-20

Family

ID=56122331

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2015227585A Active JP6682821B2 (en) 2014-12-05 2015-11-20 Service system, information processing device, service providing method
JP2020055428A Active JP6915716B2 (en) 2014-12-05 2020-03-26 Server, terminal, image transmission method, storage medium
JP2021116039A Active JP7192923B2 (en) 2014-12-05 2021-07-14 Apparatus, method, program, system
JP2022196239A Pending JP2023027216A (en) 2014-12-05 2022-12-08 Server, terminal, image transmission method, and storage medium

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2015227585A Active JP6682821B2 (en) 2014-12-05 2015-11-20 Service system, information processing device, service providing method
JP2020055428A Active JP6915716B2 (en) 2014-12-05 2020-03-26 Server, terminal, image transmission method, storage medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022196239A Pending JP2023027216A (en) 2014-12-05 2022-12-08 Server, terminal, image transmission method, and storage medium

Country Status (2)

Country Link
US (3) US11310419B2 (en)
JP (4) JP6682821B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018025825A1 (en) * 2016-08-02 2018-02-08 ナーブ株式会社 Image capture system
US10264302B2 (en) 2016-09-30 2019-04-16 Ricoh Company, Ltd. Communication management apparatus, method and computer-readable storage medium for generating image data identification information
US10721116B2 (en) 2016-09-30 2020-07-21 Ricoh Company, Ltd. Communication terminal, method for controlling display of image, and non-transitory computer-readable storage medium
JP6756269B2 (en) 2017-01-05 2020-09-16 株式会社リコー Communication terminals, image communication systems, communication methods, and programs
JP6805861B2 (en) 2017-02-09 2020-12-23 株式会社リコー Image processing equipment, image processing system, image processing method and program
JP6653940B2 (en) * 2017-05-11 2020-02-26 株式会社アジェンシア Content generation device and content generation method
KR101856548B1 (en) * 2017-08-23 2018-05-11 링크플로우 주식회사 Method for street view service and apparatus for using the method
JP6297739B1 (en) * 2017-10-23 2018-03-20 東建コーポレーション株式会社 Property information server
US10931836B2 (en) 2018-03-29 2021-02-23 Ricoh Company, Ltd. Communication system, image processing method, and recording medium
JP7198599B2 (en) * 2018-06-28 2023-01-04 株式会社カーメイト Image processing device, image processing method, drive recorder
JP7143661B2 (en) * 2018-07-24 2022-09-29 トヨタ自動車株式会社 Information processing system, program, and control method
JP7419723B2 (en) * 2019-09-25 2024-01-23 株式会社リコー Image processing system, image processing device and method
EP4016464A1 (en) 2020-11-26 2022-06-22 Ricoh Company, Ltd. Apparatus, system, method, and carrier means

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251396A (en) 2001-02-21 2002-09-06 Mapnet Co Ltd Geographical space guide device
JP2010039583A (en) 2008-07-31 2010-02-18 National Institute Of Information & Communication Technology Method and system for displaying photograph on electronic map, and electronic map therefor

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU673571B2 (en) 1992-11-24 1996-11-14 Frank Data International N.V. A method and device for producing panoramic images, and a method and device for consulting panoramic images
KR100630821B1 (en) * 2004-09-16 2006-10-02 주식회사 현대오토넷 Apparatus and method for supplying moving picture utilizing telematics system
JP3898212B2 (en) * 2005-05-30 2007-03-28 財団法人砂防フロンティア整備推進機構 Position providing photo providing system and program thereof
JP2008058917A (en) * 2006-08-31 2008-03-13 Wataru Muroi Map information display system with image
WO2008072429A1 (en) * 2006-12-12 2008-06-19 Locationview Co. System for displaying image data associated with map information
JP4210309B2 (en) * 2006-12-12 2009-01-14 株式会社ロケーションビュー Image data display system with map information and image data display program with map information
WO2008147561A2 (en) * 2007-05-25 2008-12-04 Google Inc. Rendering, viewing and annotating panoramic images, and applications thereof
US7843451B2 (en) 2007-05-25 2010-11-30 Google Inc. Efficient rendering of panoramic images, and applications thereof
JP5262232B2 (en) * 2008-03-27 2013-08-14 アクリーグ株式会社 Image orientation display method and apparatus, and photograph
JP5062848B2 (en) 2008-07-31 2012-10-31 リズム時計工業株式会社 Guide mechanism
JP2010049313A (en) 2008-08-19 2010-03-04 Sony Corp Image processor, image processing method, program
KR20110097048A (en) 2010-02-24 2011-08-31 삼성전자주식회사 An apparatus, a method, and a computer-readable medium for processing, reproducing, or storing an image file including map data
US20130263016A1 (en) 2012-03-27 2013-10-03 Nokia Corporation Method and apparatus for location tagged user interface for media sharing
JP6186775B2 (en) 2012-05-31 2017-08-30 株式会社リコー Communication terminal, display method, and program
JP6229655B2 (en) * 2013-02-21 2017-11-15 ソニー株式会社 Information processing apparatus, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251396A (en) 2001-02-21 2002-09-06 Mapnet Co Ltd Geographical space guide device
JP2010039583A (en) 2008-07-31 2010-02-18 National Institute Of Information & Communication Technology Method and system for displaying photograph on electronic map, and electronic map therefor

Also Published As

Publication number Publication date
JP2021170374A (en) 2021-10-28
US11310419B2 (en) 2022-04-19
JP6915716B2 (en) 2021-08-04
JP6682821B2 (en) 2020-04-15
JP2016110639A (en) 2016-06-20
JP2023027216A (en) 2023-03-01
US20240107173A1 (en) 2024-03-28
US11889194B2 (en) 2024-01-30
US20220201207A1 (en) 2022-06-23
US20200382701A1 (en) 2020-12-03
JP2020115365A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
JP7192923B2 (en) Apparatus, method, program, system
US10791267B2 (en) Service system, information processing apparatus, and service providing method
JP6075066B2 (en) Image management system, image management method, and program
JP2014112302A (en) Prescribed area management system, communication method, and program
JP6390992B1 (en) Street viewer system
JP2016213810A (en) Image display system, information processing apparatus, program, and image display method
JP6954410B2 (en) Management system
JP2017212510A (en) Image management device, program, image management system, and information terminal
CN107925740A (en) Image management system, image management method and program
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP6617547B2 (en) Image management system, image management method, and program
JP7378510B2 (en) street viewer system
JP2017182681A (en) Image processing system, information processing device, and program
JP2021149671A (en) Image processing device, image processing device operation method, and image processing device operation program
JP2017068832A (en) Image management system, image communication system, image management method, and program
JP2016194782A (en) Image management system, communication terminal, communication system, image management method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210805

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151