JP2020154457A - Image display system, image distribution method, and program - Google Patents

Image display system, image distribution method, and program Download PDF

Info

Publication number
JP2020154457A
JP2020154457A JP2019050320A JP2019050320A JP2020154457A JP 2020154457 A JP2020154457 A JP 2020154457A JP 2019050320 A JP2019050320 A JP 2019050320A JP 2019050320 A JP2019050320 A JP 2019050320A JP 2020154457 A JP2020154457 A JP 2020154457A
Authority
JP
Japan
Prior art keywords
image
display pattern
display
unit
advertisement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019050320A
Other languages
Japanese (ja)
Inventor
修 小河原
Osamu Ogawara
修 小河原
陽平 藤田
Yohei Fujita
陽平 藤田
崇之 原
Takayuki Hara
崇之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019050320A priority Critical patent/JP2020154457A/en
Priority to PCT/JP2020/009701 priority patent/WO2020189341A1/en
Publication of JP2020154457A publication Critical patent/JP2020154457A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Abstract

To provide an image display system that can display content from an appropriate viewing location.SOLUTION: An image display system 100 includes a terminal device 30 receiving content from an image distribution device 10 that distributes images. The image distribution device comprises a display pattern generation part 16 generating a display pattern that displays one or more pieces of content from different viewing locations, a constraint part 17 that constrains the viewing locations, and a delivery part 12 that delivers the display pattern and the content, or a plurality of display images generated based on the display pattern, to the terminal device.SELECTED DRAWING: Figure 3

Description

本発明は、画像表示システム、画像配信方法、及び、プログラムに関する。 The present invention relates to an image display system, an image distribution method, and a program.

Webページに設けられた広告枠に広告主が広告を表示させる配信型のディスプレイ広告が知られている。広告主は様々なWebサイトが提供する広告枠に製品やサービスの広告を表示させることができる。広告枠に表示された製品やサービスに興味を持った閲覧者は広告枠をクリック(又はタップ)するので、広告主は閲覧者を自社のWebサイトに呼び込むことができる。 A distribution-type display advertisement is known in which an advertiser displays an advertisement in an advertisement space provided on a Web page. Advertisers can display advertisements for products and services in the inventory provided by various websites. Viewers who are interested in the products and services displayed in the inventory click (or tap) the inventory, so advertisers can attract viewers to their website.

広告主としては閲覧者が広告をクリックする頻度を向上させたいが、1つのWebページに掲載される広告の数は増大傾向にあり、広告主は閲覧者の注意を引きつける表示方法を工夫している(例えば、特許文献1参照。)。特許文献1には、動画広告を配信することで広告の効果(クリック率)を高める技術について開示されている。人は動く物に視線を奪われやすいという傾向があるため、広告の注目度を高め広告の効果を向上させることができる。 Advertisers want to increase the frequency with which viewers click on advertisements, but the number of advertisements posted on one Web page is increasing, and advertisers are devising display methods that attract the attention of viewers. (See, for example, Patent Document 1.). Patent Document 1 discloses a technique for enhancing the effectiveness (click rate) of an advertisement by delivering a video advertisement. Since people tend to be deprived of their eyes by moving objects, it is possible to increase the attention of advertisements and improve the effectiveness of advertisements.

また、3DCG(Three−dimensional computer graphics)画像や広角画像などのように画像データの中には閲覧者の操作で見え方が変わる(視点が変わる)インタラクティブなコンテンツも存在する。このようなコンテンツをWebページに表示させることで注目度を高め広告の効果を高める試みも知られている。 In addition, some image data, such as 3DCG (Three-dimensional computer graphics) images and wide-angle images, have interactive contents whose appearance changes (viewpoint changes) depending on the operation of the viewer. Attempts have also been made to increase the degree of attention and enhance the effectiveness of advertisements by displaying such contents on Web pages.

しかしながら、3DCG画像や広角画像などの視点を変更できるコンテンツでは必ずしも適切な視点で画像が表示されるとは限らないという問題があった。補足すると、コンテンツを受信した端末装置がコンテンツに対する視点を連続的に変えながら広告枠に表示する表示方法がある。この表示方法では、コンテンツの一部が次々に広告枠に表示されるため、静止画でありながら動画のような見せ方が可能になる。広告枠の画像が自動的に変化するので、通常の静止画の広告よりも広告効果が高いことが知られている。 However, there is a problem that the image is not always displayed from an appropriate viewpoint in the content such as a 3DCG image or a wide-angle image whose viewpoint can be changed. Supplementally, there is a display method in which the terminal device that receives the content displays the content in the advertising space while continuously changing the viewpoint of the content. In this display method, a part of the content is displayed one after another in the ad space, so that the image can be displayed like a moving image even though it is a still image. It is known that the advertising effect is higher than that of a normal still image advertisement because the image of the advertising space is automatically changed.

しかし、このようなコンテンツの表示方法は、閲覧者があまり指定しない視点から見たコンテンツを自動で表示する場合があり、広告効果を損なうおそれがある。例えば、閲覧者がコンテンツを真上から見下ろしたり、真下から見上げたりすることで、閲覧者の天地の感覚が狂う場合がある。 However, such a content display method may automatically display the content viewed from a viewpoint that the viewer does not specify so much, which may impair the advertising effect. For example, when the viewer looks down at the content from directly above or looks up from directly below, the viewer's sense of top and bottom may be upset.

本発明は、上記課題に鑑み、適切な視点でコンテンツを表示することができる画像表示システムを提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an image display system capable of displaying contents from an appropriate viewpoint.

上記課題に鑑み、本発明は、画像を配信する画像配信装置から端末装置がコンテンツを受信する画像表示システムであって、前記画像配信装置は、1つ以上のコンテンツを異なる視点で表示する表示パターンを生成する表示パターン生成部と、前記視点を制約する制約部と、前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を前記端末装置に配信する配信部と、を有し、前記端末装置は、前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を取得する取得部と、前記取得部が取得した前記コンテンツを前記表示パターンで視点を変えて表示するか、又は、前記表示パターンに基づいて生成された前記複数の表示画像を表示する表示部と、を有することを特徴とする。 In view of the above problems, the present invention is an image display system in which a terminal device receives content from an image distribution device that distributes images, and the image distribution device displays one or more contents from different viewpoints. A display pattern generation unit that generates the above, a constraint unit that constrains the viewpoint, and a distribution unit that distributes the display pattern and the content, or a plurality of display images generated based on the display pattern to the terminal device. The terminal device has an acquisition unit that acquires the display pattern and the content, or a plurality of display images generated based on the display pattern, and the display of the content acquired by the acquisition unit. It is characterized by having a display unit for displaying the plurality of display images generated based on the display pattern, or displaying the plurality of display images by changing the viewpoint with a pattern.

本発明は、適切な視点でコンテンツを表示することができる画像表示システムを提供することができる。 The present invention can provide an image display system capable of displaying contents from an appropriate viewpoint.

広角画像の一例として全天球画像について説明する図の一例である。As an example of a wide-angle image, it is an example of a diagram for explaining a spherical image. 画像表示システムの概略を説明する図である。It is a figure explaining the outline of an image display system. 端末装置が全天球画像又は3DCG画像をアニメーション表示する際の遷移禁止領域を説明する図である。It is a figure explaining the transition prohibition region at the time of animating display of a spherical image or a 3DCG image by a terminal device. 画像表示システムの一例の構成図である。It is a block diagram of an example of an image display system. コンピュータシステムの一例のハードウェア構成図である。It is a hardware block diagram of an example of a computer system. 端末装置の一例のハードウェア構成図である。It is a hardware configuration diagram of an example of a terminal device. 全天球カメラの一例の使用イメージ図である。It is a use image figure of an example of an omnidirectional camera. 全天球カメラで撮像された画像から全天球画像が作成されるまでの処理の概略を説明する図である。It is a figure explaining the outline of the process from the image taken by the omnidirectional camera to the creation of the omnidirectional image. 全天球カメラで撮像された画像から全天球画像が作成されるまでの処理の概略を説明する図である。It is a figure explaining the outline of the process from the image taken by the omnidirectional camera to the creation of the omnidirectional image. 閲覧者の視線を説明する図の一例である。This is an example of a diagram for explaining the line of sight of the viewer. 所定領域情報と所定領域の画像の関係の一例を示した図である。It is a figure which showed an example of the relationship between the predetermined area information and the image of a predetermined area. 3Dモデルと射影変換を模式的に示す図である。It is a figure which shows typically the 3D model and projective transformation. 視点を変えて表示された一例の3Dモデルを示す図である。It is a figure which shows an example 3D model which was displayed by changing the viewpoint. Webページが使用する情報を模式的に説明する図の一例である。This is an example of a diagram schematically explaining information used by a Web page. 端末装置、広告主Webサーバ、パートナーサイトWebサーバ、画像配信装置、SSP及びDSPの機能をブロック状に示す一例の機能ブロック図である。It is a functional block diagram of an example which shows the function of a terminal device, an advertiser Web server, a partner site Web server, an image distribution device, SSP and DSP in a block form. コンテンツ受付部と画像登録端末の機能をブロック状に示す一例の機能ブロック図である。It is an example function block diagram which shows the function of a content reception part and an image registration terminal in a block shape. 画像登録端末のディスプレイに表示された一例のコンテンツ登録画面を示す図である。It is a figure which shows an example content registration screen displayed on the display of an image registration terminal. 注目点決定部が注目点を決定する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure in which the attention point determination unit determines the attention point. 全天球画像の一例の部分画像を示す図である。It is a figure which shows the partial image of an example of a spherical image. 表示パターン生成部が表示パターンを生成する全体的な流れの一例を示すフローチャート図である。It is a flowchart which shows an example of the whole flow which the display pattern generation part generates a display pattern. 全天球画像の視線方向又は3DCG画像における仮想的なカメラの位置のパラメータを説明する図の一例である。It is an example of the figure explaining the parameter of the line-of-sight direction of a spherical image or the position of a virtual camera in a 3DCG image. 全天球画像の視線方向又は3DCG画像における仮想的なカメラの位置の簡略化されたパラメータを説明する図の一例である。It is an example of the figure explaining the simplified parameter of the line-of-sight direction of the spherical image or the position of the virtual camera in the 3DCG image. 水平軌道を採用した場合における、全天球画像の視線方向又は3DCG画像における仮想的なカメラの一例を示す図である。It is a figure which shows an example of the virtual camera in the line-of-sight direction of an omnidirectional image or a 3DCG image when a horizontal orbit is adopted. 大円軌道を採用した場合における、全天球画像の視線方向又は3DCG画像における仮想的なカメラの位置の一例を示す図である。It is a figure which shows an example of the line-of-sight direction of a spherical image, or the position of a virtual camera in a 3DCG image when the large circular orbit is adopted. 螺旋軌道を採用した場合の3DCG画像における仮想的なカメラの位置の一例を示す図である。It is a figure which shows an example of the position of the virtual camera in the 3DCG image when the spiral trajectory is adopted. 要素軌道を用いた表示パターンの生成時に、図20のステップS103で実行される手順を示すフローチャート図である。It is a flowchart which shows the procedure executed in step S103 of FIG. 20 at the time of generating a display pattern using an element trajectory. 要素軌道上の注目度の累積値を説明する図である。It is a figure explaining the cumulative value of the attention degree on the element trajectory. 2つ以上の要素軌道を求める手順を示す一例のフローチャート図である。It is a flowchart of an example which shows the procedure which obtains the 2 or more element trajectories. 画像表示システムが広告として表示される全天球画像又は3DCG画像を配信する手順を説明するシーケンス図の一例である。This is an example of a sequence diagram illustrating a procedure for the image display system to deliver a spherical image or a 3DCG image displayed as an advertisement. 広告データを受信した端末装置の動作を説明する一例のフローチャート図である。It is a flowchart of an example explaining the operation of the terminal apparatus which received advertisement data. 広告データが配信されるいくつかの形態を示す図である。It is a figure which shows some form in which advertisement data is delivered.

以下、本発明を実施するための方法の一例として画像表示システムと画像表示システムが行う画像配信方法について説明する。 Hereinafter, an image display system and an image distribution method performed by the image display system will be described as an example of a method for carrying out the present invention.

<本実施形態の画像表示システムの概略>
図1は、広角画像の一例として全天球画像6について説明する図の一例である。図1(a)は、3次元の立体球CSで表された全天球画像6を示し、図1(b)は正距円筒図法で表された画像(以下、「正距円筒射影画像」という)である全天球画像6を示す。全天球カメラで生成された全天球画像6は図1(b)のような正距円筒射影画像が立体球CSに張り合わされた三次元の構造を有している。仮想カメラICは閲覧者の目の位置に対応し、図1(a)では全天球画像6の中心に目の位置がある。閲覧者は仮想カメラICを通るX軸、Y軸、Z軸を中心とする3軸の回転を行わせて、全天球画像6の任意の領域を所定領域画像Qとして端末装置のディスプレイ上に表示させることができる。所定領域画像の位置及び大きさなど(図1(b)のA1〜A3)のパラメータを連続的に変えることでアニメーションのように表示できる。
<Outline of the image display system of this embodiment>
FIG. 1 is an example of a diagram for explaining the spherical image 6 as an example of a wide-angle image. FIG. 1 (a) shows an all-sky image 6 represented by a three-dimensional three-dimensional sphere CS, and FIG. 1 (b) is an image represented by equirectangular projection (hereinafter, “equirectangular projection image””. The whole celestial sphere image 6 is shown. The omnidirectional image 6 generated by the omnidirectional camera has a three-dimensional structure in which an equirectangular projection image as shown in FIG. 1B is attached to a three-dimensional sphere CS. The virtual camera IC corresponds to the position of the eyes of the viewer, and in FIG. 1A, the position of the eyes is at the center of the spherical image 6. The viewer rotates the three axes around the X-axis, Y-axis, and Z-axis passing through the virtual camera IC, and sets an arbitrary region of the spherical image 6 as a predetermined region image Q on the display of the terminal device. It can be displayed. It can be displayed like an animation by continuously changing the parameters (A1 to A3 in FIG. 1B) such as the position and size of the predetermined area image.

図1(c)は3DCG画像とその表示方法を説明する図である。3DCG(Three−dimensional computer graphics)画像は、3次元点群、2Dメッシュ、又はテクスチャなどで構成されている3Dモデル95を仮想的なカメラ330で撮像した(投影した)画像である。端末装置が仮想的なカメラ330の位置と照明の方向を設定し、仮想的なカメラ330に3Dモデル95を投影して投影画像が生成される。仮想的なカメラ330の位置及び画角などのパラメータを連続的に変えることでアニメーションのように表示できる。 FIG. 1C is a diagram illustrating a 3DCG image and a display method thereof. A 3DCG (Three-dimensional computer graphics) image is an image obtained (projected) of a 3D model 95 composed of a three-dimensional point cloud, a 2D mesh, a texture, or the like with a virtual camera 330. The terminal device sets the position of the virtual camera 330 and the direction of illumination, and projects the 3D model 95 onto the virtual camera 330 to generate a projected image. It can be displayed like an animation by continuously changing parameters such as the position and angle of view of the virtual camera 330.

図2は、本実施形態の画像表示システム100の概略を説明する図である。本実施形態では第三者配信により配信される広告に全天球画像6を用いる画像表示システム100について説明する。第三者配信とは、媒体社が保有しているサーバでなく広告代理店などが保有するサーバから媒体に広告を配信する仕組みである。第三者配信サーバは広告の配信頻度などのコントロールや広告の効果の計測等を行う。図2では画像配信装置10が第三者配信サーバに相当する。
(S1)端末装置30は広告枠7(広告を表示する表示枠)を有するWebページをブラウザ8等で開くと、この端末装置30に広告を表示したいと考えるDSP20(Demand−Side Platform)が端末装置30に通知される。端末装置30はこのDSP20に広告を要求する。
(S2)DSP20は画像配信装置10に広告を要求する。
(S3)画像配信装置10は広告要求を記憶しておき、自機に端末装置30がアクセスするためのアクセス情報2を生成してDSP20に送信する。
(S4)DSP20は受信したアクセス情報2を端末装置30に送信する。
(S5)端末装置30はアクセス情報2に基づいて画像配信装置10に対し広告データを要求する。
(S6)画像配信装置10はアクセス情報2で要求された広告データ(全天球画像6又は3DCG画像の少なくとも一方。これをコンテンツという。)を端末装置30に送信する。
(S7)端末装置30はコンテンツを受信して、端末装置30で動作するブラウザ8等がコンテンツ(図2では全天球画像6における複数の注目領域A1〜A3)を表示パターンにしたがって順番に所定領域画像Qとして表示する。例えば、図2の全天球画像6は3つの注目点A1〜A3と各注点A1〜A3の画角を保持しており、閲覧者が操作しなくても注目点A1(画角1)→注目点A2(画角2)→注目点A3(画角3)の順に回転する複数の表示画像を生成する。
FIG. 2 is a diagram illustrating an outline of the image display system 100 of the present embodiment. In the present embodiment, the image display system 100 that uses the spherical image 6 for the advertisement delivered by the third party distribution will be described. Third-party distribution is a mechanism for delivering advertisements to media from a server owned by an advertising agency or the like instead of a server owned by the media company. The third-party distribution server controls the distribution frequency of advertisements and measures the effectiveness of advertisements. In FIG. 2, the image distribution device 10 corresponds to a third-party distribution server.
(S1) When the terminal device 30 opens a Web page having an advertisement frame 7 (display frame for displaying an advertisement) with a browser 8 or the like, a DSP 20 (Demand-Side Platform) that wants to display an advertisement on the terminal device 30 is a terminal. The device 30 is notified. The terminal device 30 requests an advertisement from the DSP 20.
(S2) The DSP 20 requests an advertisement from the image distribution device 10.
(S3) The image distribution device 10 stores the advertisement request, generates access information 2 for the terminal device 30 to access the own device, and transmits the access information 2 to the DSP 20.
(S4) The DSP 20 transmits the received access information 2 to the terminal device 30.
(S5) The terminal device 30 requests advertisement data from the image distribution device 10 based on the access information 2.
(S6) The image distribution device 10 transmits the advertisement data (at least one of the spherical image 6 or the 3DCG image, which is referred to as content) requested in the access information 2 to the terminal device 30.
(S7) The terminal device 30 receives the content, and the browser 8 or the like operating on the terminal device 30 sequentially determines the content (a plurality of attention areas A1 to A3 in the whole celestial sphere image 6 in FIG. It is displayed as a region image Q. For example, the celestial sphere image 6 of FIG. 2 holds the angles of view of the three points of interest A1 to A3 and the points of interest A1 to A3, and the points of interest A1 (angle of view 1) even if the viewer does not operate the image. → Generates a plurality of display images that rotate in the order of attention point A2 (angle of view 2) → attention point A3 (angle of view 3).

図3は、端末装置30が全天球画像6又は3DCG画像をアニメーション表示する際の遷移禁止領域81を説明する図である。図3(a)は3DCG画像の注目点Pを示し、図3(b)は全天球画像6の注目点Pを示す。図3(a)、図3(b)では顕著性検出、物体検出などの手法を用いて決定された注目度が高い注目点Pが示されている。画像配信装置10はこのようにして注目度マップを作り、注目度が高い領域を通る軌道を視点とする表示パターンを生成する。 FIG. 3 is a diagram illustrating a transition prohibition region 81 when the terminal device 30 animates the spherical image 6 or the 3DCG image. FIG. 3A shows the point of interest P of the 3DCG image, and FIG. 3B shows the point of interest P of the spherical image 6. In FIGS. 3A and 3B, points of interest P having a high degree of attention determined by using techniques such as prominence detection and object detection are shown. The image distribution device 10 creates an attention level map in this way, and generates a display pattern with the trajectory passing through the region of high attention level as the viewpoint.

一方、注目度が高い領域を通る軌道を視点とする表示パターンは、閲覧者があまり指定しない視点を採用してしまう場合があり、広告効果を損なうおそれがあった。また、異なる視点を複雑な軌道で遷移することでスムーズさが失われる場合がある。 On the other hand, the display pattern with the orbit passing through the area of high attention as the viewpoint may adopt a viewpoint that the viewer does not specify so much, which may impair the advertising effect. In addition, smoothness may be lost by transitioning from different viewpoints in a complicated trajectory.

そこで、図3(c)、図3(d)に示すように、担当者が遷移禁止領域81を設定する。図3(c)は3DCG画像の遷移禁止領域81を示し、図3(d)は全天球画像6の遷移禁止領域81を示す。3DCG画像の遷移禁止領域81は、仮想的なカメラ330が取ることができない(又は取りにくい)位置を意味し、全天球画像6の遷移禁止領域81は仮想カメラICが取ることができない全天球画像6の座標(視線方向)を意味する。遷移禁止領域81は遷移が禁止される領域である。また、完全に禁止するのでなく、仮想カメラICが取りにくい全天球画像6の座標(視線方向)でもよい。この場合、遷移禁止領域81は遷移が禁止又は制限される領域である。 Therefore, as shown in FIGS. 3 (c) and 3 (d), the person in charge sets the transition prohibition area 81. FIG. 3C shows a transition prohibited region 81 of the 3DCG image, and FIG. 3D shows a transition prohibited region 81 of the spherical image 6. The transition prohibited area 81 of the 3DCG image means a position that the virtual camera 330 cannot (or is difficult to take) to take, and the transition prohibited area 81 of the spherical image 6 is the whole sky that the virtual camera IC cannot take. It means the coordinates (line-of-sight direction) of the spherical image 6. The transition prohibited area 81 is an area where transition is prohibited. Further, the coordinates (line-of-sight direction) of the spherical image 6 which is difficult to take by the virtual camera IC may be used instead of completely prohibiting it. In this case, the transition prohibited area 81 is an area where transition is prohibited or restricted.

図3(c)、図3(d)では、天頂及び天底の斜線部分が仮想的なカメラ330の位置又は全天球画像6の座標の遷移禁止領域81である。本実施形態の端末装置30は遷移禁止領域81に入らないように表示パターンを生成する。 In FIGS. 3 (c) and 3 (d), the shaded portions of the zenith and the nadir are the transition prohibition region 81 of the position of the virtual camera 330 or the coordinates of the spherical image 6. The terminal device 30 of the present embodiment generates a display pattern so as not to enter the transition prohibition area 81.

このように視点を制約することにより、視点が不自然に遷移することを防ぐことができる。例えば、コンテンツを真上から見下ろしたり、真下から見上げたりする視点に遷移することを抑制できる。また、後述する要素軌道を設定した上で視点を制約することで異なる視線方向を複雑な軌道で遷移することを抑制できる。したがって、適切な視点でコンテンツを表示することができ、広告効果を高めやすくなる。 By restricting the viewpoint in this way, it is possible to prevent the viewpoint from transitioning unnaturally. For example, it is possible to suppress the transition to a viewpoint in which the content is viewed from directly above or looked up from directly below. Further, by restricting the viewpoint after setting the element trajectory described later, it is possible to suppress the transition of different line-of-sight directions in a complicated trajectory. Therefore, the content can be displayed from an appropriate viewpoint, and it becomes easy to enhance the advertising effect.

<用語について>
視点とは同じコンテンツを平面画像で表示する場合にどの方向から射影するかに関する情報である。
<Terminology>
The viewpoint is information about from which direction the same content is projected when it is displayed as a flat image.

表示パターンに基づいて生成された複数の表示画像は、少しずつ異なる静止画が連続した複数の画像であり、例えば、動画、アニメーションなどと称してよい。 The plurality of display images generated based on the display pattern are a plurality of images in which slightly different still images are continuous, and may be referred to as, for example, a moving image or an animation.

<システム構成例>
図4は、画像表示システム100の概略的な構成図の一例である。画像表示システム100は、ネットワークNを介して通信可能な端末装置30、画像配信装置10、DSP20、SSP(Supply Side Platform)50、パートナーサイトWebサーバ60、及び、広告主Webサーバ70を有している。
<System configuration example>
FIG. 4 is an example of a schematic configuration diagram of the image display system 100. The image display system 100 includes a terminal device 30, an image distribution device 10, a DSP 20, an SSP (Supply Side Platform) 50, a partner site Web server 60, and an advertiser Web server 70 that can communicate via the network N. There is.

ネットワークNは、端末装置30が設置されている施設などに構築されているLAN、LANをインターネットに接続するプロバイダのプロバイダネットワーク、及び、回線事業者が提供する回線等により構築されている。ネットワークNが複数のLANを有する場合、ネットワークNはWANやインターネットと呼ばれる。ネットワークNは有線又は無線のどちらで構築されてもよく、また、有線と無線が組み合わされていてもよい。また、端末装置30が直接、公衆回線網に接続する場合は、LANを介さずにプロバイダネットワークに接続することができる。 The network N is constructed by a LAN constructed in a facility or the like where the terminal device 30 is installed, a provider network of a provider that connects the LAN to the Internet, a line provided by a line operator, or the like. When the network N has a plurality of LANs, the network N is called a WAN or the Internet. The network N may be constructed either wired or wireless, and may be a combination of wired and wireless. Further, when the terminal device 30 is directly connected to the public network, it can be connected to the provider network without going through a LAN.

端末装置30は、本実施形態においてクライアント端末として動作する情報処理装置である。端末装置30ではブラウザソフト又はこれと同等の機能を有するアプリケーションソフトウェアが動作しており、端末装置30が要求したWebページをパートナーサイトWebサーバ60から受信してディスプレイに表示させる。 The terminal device 30 is an information processing device that operates as a client terminal in the present embodiment. Browser software or application software having a function equivalent thereto is operating in the terminal device 30, and the Web page requested by the terminal device 30 is received from the partner site Web server 60 and displayed on the display.

端末装置30は、例えばPC(Personal Computer)、タブレット装置、スマートフォン、PDA(Personal Digital Assistant)、ゲーム機、ナビゲーション端末、ウェアラブルPCなどであるが、Webページを表示させることができればよい。例えば、プリンターがWebページを表示させる機能やディスプレイを有する場合、プリンターが端末装置30として使用されてもよい。また、デジタルサイネージがWebページを表示させてもよい。デジタルサイネージとは、屋外、店頭、公共空間及び交通機関など、人が通過又は存在しうる場所でディスプレイなどの電子的な表示機器を使って情報を発信するシステム、表示機器又は表示される情報をいう。なお、本実施形態ではWebページにWebアプリが含まれるものとする。Webアプリとは、ブラウザ上で動作するプログラミング言語(たとえばJavaScript(登録商標))によるプログラムとWebサーバ側のプログラムが協調することによって動作し、ブラウザ上で使用されるソフトウェア又はその仕組みを言う。なお、本実施形態では、Webアプリ以外にも、ネイティブアプリと呼ばれるOSに依存するアプリであっても同様に動作させることができる。 The terminal device 30 is, for example, a PC (Personal Computer), a tablet device, a smartphone, a PDA (Personal Digital Assistant), a game machine, a navigation terminal, a wearable PC, or the like, but it is sufficient if a Web page can be displayed. For example, if the printer has a function or a display for displaying a Web page, the printer may be used as the terminal device 30. In addition, digital signage may display a Web page. Digital signage is a system, display device, or information to be displayed that uses an electronic display device such as a display to transmit information in places where people can pass or exist, such as outdoors, storefronts, public spaces, and transportation facilities. Say. In this embodiment, it is assumed that the Web page includes the Web application. A Web application refers to software or a mechanism thereof that operates by coordinating a program in a programming language (for example, JavaScript (registered trademark)) that operates on a browser and a program on the Web server side, and is used on the browser. In the present embodiment, in addition to the Web application, an OS-dependent application called a native application can be operated in the same manner.

端末装置30は、有線LANや無線LANのアクセスポイントを介してネットワークNと接続してもよいし、3G、4GやLTE(Long Term Evolution)といった交換回線型の通信により、ネットワークNに接続してもよい。 The terminal device 30 may be connected to the network N via a wired LAN or wireless LAN access point, or may be connected to the network N by an exchange line type communication such as 3G, 4G or LTE (Long Term Evolution). May be good.

パートナーサイトWebサーバ60は閲覧者が使用するクライアントコンピュータ(本実施形態の端末装置30)に対しネットワークを通じて情報や機能を提供するサーバ(一般的な情報処理装置)である。パートナーサイトWebサーバ60が提供するWebページには広告枠7が設けられている。パートナーサイトWebサーバ60はSSP50に広告枠7への広告の表示を依頼している。これにより、広告枠7にはSSP50が発行した広告タグを対応付けることができる。 The partner site Web server 60 is a server (general information processing device) that provides information and functions to a client computer (terminal device 30 of the present embodiment) used by a viewer via a network. An advertising space 7 is provided on the Web page provided by the partner site Web server 60. The partner site Web server 60 requests the SSP 50 to display an advertisement in the advertising space 7. As a result, the advertisement tag issued by the SSP 50 can be associated with the advertisement space 7.

広告主Webサーバ70も閲覧者が使用するクライアントコンピュータ(本実施形態の端末装置30)に対しネットワークを通じて情報や機能を提供するサーバ(一般的な情報処理装置)である。広告主は広告枠7の購入をDSP20に依頼している。また、広告データを保持する画像配信装置10をDSP20に登録している。また、広告主は広告データを画像配信装置10に入稿しておく。広告データには、全天球画像6又は3DCG画像の他、広告主Webサーバ70など閲覧者に閲覧させたいWebサイト(ランディングページ)のURLが登録されている(URLがリンクされている)。 The advertiser Web server 70 is also a server (general information processing device) that provides information and functions to the client computer (terminal device 30 of the present embodiment) used by the viewer via a network. The advertiser asks the DSP 20 to purchase the advertising space 7. Further, the image distribution device 10 that holds the advertisement data is registered in the DSP 20. In addition, the advertiser uploads the advertisement data to the image distribution device 10. In the advertisement data, in addition to the all-sky image 6 or the 3DCG image, the URL of the website (landing page) to be browsed by the viewer such as the advertiser Web server 70 is registered (URL is linked).

広告主Webサーバ70及びパートナーサイトWebサーバ60と端末装置30は例えばHTTP又はHTTPsの通信プロトコルを使って通信する。端末装置30からの要求に対し広告主Webサーバ70とパートナーサイトWebサーバ60が画面情報を端末装置30に送信する。画面情報は、HTML、スクリプト言語、及びCSS(cascading style sheet)で記述されたプログラムであり、主にHTMLによりWebページの構造が特定され、スクリプト言語によりWebページの動作が規定され、CSSによりWebページのスタイルが特定される。本実施形態で、閲覧者のWebページに対する操作を全天球画像6に反映させるのはスクリプト言語である。スクリプト言語として、具体的には、JavaScript(登録商標)又はECMAScriptというプログラム言語が知られている。 The advertiser Web server 70, the partner site Web server 60, and the terminal device 30 communicate with each other using, for example, the communication protocol of HTTP or HTTPs. In response to the request from the terminal device 30, the advertiser Web server 70 and the partner site Web server 60 transmit screen information to the terminal device 30. The screen information is a program described in HTML, a script language, and CSS (cascading style sheet). The structure of the Web page is mainly specified by HTML, the operation of the Web page is defined by the script language, and the Web is defined by CSS. The style of the page is specified. In the present embodiment, it is the script language that reflects the operation of the viewer on the Web page in the spherical image 6. As a script language, specifically, a programming language called JavaScript (registered trademark) or ECMAScript is known.

広告主Webサーバ70及びパートナーサイトWebサーバ60はいずれもクッキー(Cookie)を端末装置30のブラウザソフトに記録する。広告主Webサーバ70は自社のクッキーとDSP20のクッキーの両方を記録し、パートナーサイトWebサーバ60は自社のクッキーとSSP50のクッキーの両方を記録する。 Both the advertiser Web server 70 and the partner site Web server 60 record a cookie in the browser software of the terminal device 30. The advertiser Web server 70 records both its own cookie and the DSP20 cookie, and the partner site Web server 60 records both its own cookie and the SSP50 cookie.

SSP50は、広告枠7を掲載するパートナーサイトWebサーバ60が広告枠7を販売することで収益を最大化するための仕組みである。図では1つの装置のように記載されているが、1台以上の情報処理装置のネットワークである。パートナーサイトWebサーバ60はSSP50に広告枠7の販売を依頼している。具体的には広告枠7にSSP50が発行する広告タグが記載されており、端末装置30がパートナーサイトWebサーバ60のWebページを表示すると広告タグがSSP50に広告の配信を要求する(広告リクエスト)。SSP50はDSP20から広告枠7の入札を受け付け、落札したDSP20にアクセスするためのアクセス情報1を端末装置30に送信する。 The SSP 50 is a mechanism for the partner site Web server 60 that publishes the advertising space 7 to maximize the profit by selling the advertising space 7. Although it is described as one device in the figure, it is a network of one or more information processing devices. The partner site Web server 60 requests the SSP 50 to sell the advertising space 7. Specifically, the advertisement tag issued by the SSP 50 is described in the advertisement space 7, and when the terminal device 30 displays the Web page of the partner site Web server 60, the advertisement tag requests the SSP 50 to deliver the advertisement (advertisement request). .. The SSP 50 accepts a bid for the advertising space 7 from the DSP 20 and transmits the access information 1 for accessing the successful bid DSP 20 to the terminal device 30.

DSP20は広告枠7の買い付け、広告配信等、広告主のために効率的・効果的な広告配信を行う仕組みである。図では1つの装置のように記載されているが、1台以上の情報処理装置のネットワークである。すなわち、DSP20はSSP50からクッキー(区別するためSSPクッキーという)等を取得して、自分が管理するDSPクッキーとSSPクッキーの対応付情報に基づき閲覧者の属性等を判断する。そして、閲覧者の属性や予算等に基づいて依頼している広告主からの広告の配信設定に基づいて決定した価格でSSP50に入札する。 The DSP 20 is a mechanism for efficiently and effectively delivering advertisements for advertisers, such as purchasing advertising space 7 and delivering advertisements. Although it is described as one device in the figure, it is a network of one or more information processing devices. That is, the DSP 20 acquires a cookie (referred to as an SSP cookie to distinguish it) from the SSP 50, and determines the attributes of the viewer based on the correspondence information between the DSP cookie and the SSP cookie managed by the DSP 20. Then, the bid is placed on the SSP50 at a price determined based on the distribution setting of the advertisement from the advertiser who requests based on the attributes of the viewer, the budget, and the like.

落札したDSP20はアクセス情報1により端末装置30から広告を要求される。DSP20は画像配信装置10に広告リクエストを通知して、画像配信装置10に端末装置30が広告データを要求するためのアクセス情報2を画像配信装置10から取得する。なお、広告データは、全天球画像6又は3DCG画像の少なくとも一方を表示させる表示プログラムと操作履歴を取得する操作履歴プログラムを含む。 The successful bidder DSP 20 is requested to advertise by the terminal device 30 by the access information 1. The DSP 20 notifies the image distribution device 10 of the advertisement request, and acquires the access information 2 for the terminal device 30 to request the advertisement data from the image distribution device 10 from the image distribution device 10. The advertisement data includes a display program for displaying at least one of the spherical image 6 or the 3DCG image and an operation history program for acquiring the operation history.

DSP20はアクセス情報2を端末装置30に送信する。DSP20は契約にしたがって広告主に課金する。画像配信装置10と広告主との間では契約に従った課金が行われる。ただし、広告が表示されただけで課金されるかどうかなどは契約によって異なる。 The DSP 20 transmits the access information 2 to the terminal device 30. The DSP 20 charges the advertiser according to the contract. Billing is performed according to the contract between the image distribution device 10 and the advertiser. However, whether or not you will be charged just for displaying the advertisement depends on the contract.

画像配信装置10は、DSP20が買い取った広告枠7に対し閲覧者の属性に最適な広告の素材(全天球画像6又は3DCG画像)を含む広告データを提供する1台以上の情報処理装置である。画像配信装置10はバナーやテキストなどの入稿素材や広告画像を保持している。広告データは単なるバナー(文字や写真や絵でつくられた画像)の場合もあるし、画像に加えスクリプト言語が含まれる場合がある。本実施形態では、全天球画像6を表示順に回転させたり、閲覧者の全天球画像6又は3DCG画像の少なくとも一方に対する操作を全天球画像6の外観に反映させたりする表示プログラム、及び、全天球画像6又は3DCG画像の少なくとも一方に対する操作履歴を記録したりするための操作履歴プログラムが含まれる。いずれもスクリプト言語で記述される。 The image distribution device 10 is one or more information processing devices that provide advertisement data including the advertisement material (all-sky image 6 or 3DCG image) that is most suitable for the attributes of the viewer for the advertisement space 7 purchased by the DSP 20. is there. The image distribution device 10 holds submitted materials such as banners and texts and advertisement images. Advertising data may be just a banner (an image made up of text, photos or pictures), or it may include a scripting language in addition to the image. In the present embodiment, a display program that rotates the spherical image 6 in the display order and reflects an operation on at least one of the spherical image 6 or the 3DCG image of the viewer on the appearance of the spherical image 6. , An operation history program for recording an operation history for at least one of the spherical image 6 or the 3DCG image is included. Both are written in a scripting language.

端末装置30がアクセス情報2に基づいて画像配信装置10に広告データを要求すると、画像配信装置10は広告データを端末装置30に送信する。広告データには全天球画像6が含まれており、表示プログラムは全天球画像6又は3DCG画像の少なくとも一方の注目点を辿るように自動的に全天球画像6又は3DCG画像の少なくとも一方を回転させ、また、拡大したり縮小したりする。また、操作履歴プログラムは画像配信装置10のクッキー(区別するため画像クッキーという)及び画像IDと共に全天球画像6に対する操作履歴を画像配信装置10に送信する。画像クッキーは画像配信装置10からブラウザソフトに書き込まれる。操作履歴は例えば、どの閲覧画角が表示されたかという情報である。なお、この操作履歴は注目点の決定に使用されるため、操作履歴が注目点の決定に使用されない場合、操作履歴は送信されなくてもよい。 When the terminal device 30 requests the advertisement data from the image distribution device 10 based on the access information 2, the image distribution device 10 transmits the advertisement data to the terminal device 30. The advertising data includes the spherical image 6, and the display program automatically follows at least one of the spherical images 6 or 3DCG images of interest. Rotates and also zooms in and out. Further, the operation history program transmits the operation history for the celestial sphere image 6 to the image distribution device 10 together with the cookie of the image distribution device 10 (referred to as an image cookie for distinction) and the image ID. The image cookie is written in the browser software from the image distribution device 10. The operation history is, for example, information as to which viewing angle of view is displayed. Since this operation history is used to determine the point of interest, the operation history may not be transmitted if the operation history is not used to determine the point of interest.

また、操作履歴プログラムは、後述する表示パターンのパターンIDと共にクリックされた旨を画像配信装置10に送信する。画像配信装置10は1つの全天球画像6に対し複数の表示パターンを定めており、各表示パターンのクリック率を監視することで、クリック率が高い表示パターンのみを配信できるようになる。 Further, the operation history program transmits to the image distribution device 10 that the click is performed together with the pattern ID of the display pattern described later. The image distribution device 10 defines a plurality of display patterns for one spherical image 6, and by monitoring the click rate of each display pattern, only the display pattern having a high click rate can be distributed.

<ハードウェア構成例>
続いて、本実施形態の画像表示システムにおける広告主Webサーバ70、パートナーサイトWebサーバ60、画像配信装置10、SSP50及びDSP20のハードウェア構成について説明する。
<Hardware configuration example>
Subsequently, the hardware configurations of the advertiser Web server 70, the partner site Web server 60, the image distribution device 10, the SSP 50, and the DSP 20 in the image display system of the present embodiment will be described.

広告主Webサーバ70、パートナーサイトWebサーバ60、画像配信装置10、SSP50及びDSP20は、例えば図5に示すハードウェア構成のコンピュータシステムにより実現される。図5は本実施形態に係るコンピュータシステム200の一例のハードウェア構成図である。 The advertiser Web server 70, the partner site Web server 60, the image distribution device 10, the SSP 50 and the DSP 20 are realized by, for example, a computer system having a hardware configuration shown in FIG. FIG. 5 is a hardware configuration diagram of an example of the computer system 200 according to the present embodiment.

図5に示したコンピュータシステム200は、入力装置201、表示装置202、外部I/F203、RAM(Random Access Memory)204、ROM(Read Only Memory)205、CPU(Central Processing Unit)206、通信I/F207、及びHDD(Hard Disk Drive)208などを備え、それぞれがバスBで相互に接続されている。 The computer system 200 shown in FIG. 5 includes an input device 201, a display device 202, an external I / F 203, a RAM (Random Access Memory) 204, a ROM (Read Only Memory) 205, a CPU (Central Processing Unit) 206, and a communication I /. It includes an F207, an HDD (Hard Disk Drive) 208, and the like, and each is connected to each other by a bus B.

入力装置201はキーボードやマウス、タッチパネルなどを含み、オペレータが各操作信号を入力するのに用いられる。表示装置202はディスプレイなどを含み、コンピュータシステム200による処理結果を表示する。 The input device 201 includes a keyboard, a mouse, a touch panel, and the like, and is used by the operator to input each operation signal. The display device 202 includes a display and the like, and displays the processing result by the computer system 200.

通信I/F207はコンピュータシステム200を社内ネットワーク及びインターネット等に接続させるインタフェースである。これにより、コンピュータシステム200は通信I/F207を介してデータ通信を行うことができる。 The communication I / F 207 is an interface for connecting the computer system 200 to the in-house network, the Internet, and the like. As a result, the computer system 200 can perform data communication via the communication I / F 207.

HDD208はプログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、例えばコンピュータシステム200全体を制御する基本ソフトウェアであるOS(Operating System)や、OS上において各種機能を提供するアプリケーションソフトなどがある。HDD208は格納しているプログラム208pやデータを所定のファイルシステム及び/又はDB(データベース)により管理している。 HDD 208 is a non-volatile storage device that stores programs and data. The stored programs and data include, for example, an OS (Operating System), which is basic software that controls the entire computer system 200, and application software that provides various functions on the OS. The HDD 208 manages the stored program 208p and data by a predetermined file system and / or DB (database).

外部I/F203は、外部装置とのインタフェースである。外部装置には、記録媒体203aなどがある。これにより、コンピュータシステム200は外部I/F203を介して記録媒体203aの読み取り及び/又は書き込みを行うことができる。記録媒体203aにはフレキシブルディスク、CD(Compact Disk)、DVD(Digital Versatile Disk)、SDメモリカード(SD Memory card)、USBメモリ(Universal Serial Bus memory)などがある。 The external I / F 203 is an interface with an external device. The external device includes a recording medium 203a and the like. As a result, the computer system 200 can read and / or write to the recording medium 203a via the external I / F 203. The recording medium 203a includes a flexible disk, a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory card), a USB memory (Universal Serial Bus memory), and the like.

ROM205は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM205には、コンピュータシステム200の起動時に実行されるBIOS(Basic Input/Output System)、OS設定、及びネットワーク設定などのプログラムやデータが格納されている。RAM204は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。 The ROM 205 is a non-volatile semiconductor memory (storage device) capable of holding programs and data even when the power is turned off. The ROM 205 stores programs and data such as a BIOS (Basic Input / Output System), an OS setting, and a network setting that are executed when the computer system 200 is started. The RAM 204 is a volatile semiconductor memory (storage device) that temporarily holds programs and data.

CPU206は、ROM205やHDD208などの記憶装置からプログラムやデータをRAM204上に読み出し、処理を実行することで、コンピュータシステム200全体の制御や機能を実現する演算装置である。 The CPU 206 is an arithmetic unit that realizes control and functions of the entire computer system 200 by reading a program or data from a storage device such as the ROM 205 or the HDD 208 onto the RAM 204 and executing processing.

なお、各サーバはクラウドコンピューティングに対応していてよいが、いわゆる単体の情報処理装置でもよい。クラウドコンピューティングとは、特定ハードウェア資源が意識されずにネットワーク上のリソースが利用される利用形態をいう。 Although each server may support cloud computing, it may be a so-called single information processing device. Cloud computing refers to a usage pattern in which resources on a network are used without being aware of specific hardware resources.

<<端末装置>>
図6は端末装置30の一例のハードウェア構成図である。なお、図6の端末装置30はタブレット装置又はスマートフォン等が想定されている。端末装置30は、CPU601、ROM602、RAM603、EEPROM604、CMOSセンサ605、加速度・方位センサ606、メディアドライブ608を備えている。
<< Terminal device >>
FIG. 6 is a hardware configuration diagram of an example of the terminal device 30. The terminal device 30 in FIG. 6 is assumed to be a tablet device, a smartphone, or the like. The terminal device 30 includes a CPU 601, a ROM 602, a RAM 603, an EEPROM 604, a CMOS sensor 605, an acceleration / orientation sensor 606, and a media drive 608.

CPU601は端末装置30の全体の動作を制御する。ROM602は基本入出力プログラムを記憶している。RAM603はCPU601のワークエリアとして使用される。EEPROM604はCPU601の制御にしたがってデータの読み出し又は書き込みを行う。CMOSセンサ605は、CPU601の制御にしたがって被写体を撮像し画像データを得る。加速度・方位センサ606は地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等である。 The CPU 601 controls the overall operation of the terminal device 30. The ROM 602 stores a basic input / output program. The RAM 603 is used as a work area for the CPU 601. The EEPROM 604 reads or writes data under the control of the CPU 601. The CMOS sensor 605 takes an image of the subject under the control of the CPU 601 and obtains image data. The acceleration / azimuth sensor 606 is an electronic magnetic compass, a gyro compass, an acceleration sensor, etc. that detect the geomagnetism.

メディアドライブ608は、フラッシュメモリ等のメディア607に対するデータの読み出し又は書き込み(記憶)を制御する。メディアドライブ608は、既に記録されていたデータが読み出され又は新たにデータが書き込まれて記憶するメディア607を着脱自在な構成となっている。 The media drive 608 controls reading or writing (storage) of data to the media 607 such as a flash memory. The media drive 608 has a structure in which the media 607 from which already recorded data is read out or new data is newly written and stored is detachable.

なお、EEPROM604には、CPU601が実行するプログラム604pが記憶されている。プログラム604pは実施形態における各種処理を実行するためのアプリケーションソフトウェアやOS等である。プログラム604pはメディア607などに記憶された状態で配布されてもよいし、プログラム配信用のサーバから配信されてもよい。 The program 604p executed by the CPU 601 is stored in the EEPROM 604. The program 604p is application software, an OS, or the like for executing various processes in the embodiment. The program 604p may be distributed in a state of being stored in the media 607 or the like, or may be distributed from a server for program distribution.

また、CMOSセンサ605は光を電荷に変換して被写体の画像を電子化する電荷結合素子である。CMOSセンサ605は被写体を撮像することができるのであれば、例えばCCD(Charge Coupled Device)センサであってもよい。CMOSセンサ605はバーコードや二次元バーコードを読み取ることができる。 Further, the CMOS sensor 605 is a charge coupling element that converts light into electric charges and digitizes an image of a subject. The CMOS sensor 605 may be, for example, a CCD (Charge Coupled Device) sensor as long as it can image a subject. The CMOS sensor 605 can read barcodes and two-dimensional barcodes.

更に、端末装置30は、RFタグリーダ/ライタ622、アンテナI/F623、及び、振動アクチュエータ624を備える。RFタグリーダ/ライタ622は例えばNFC(Near Field Communication)などの規格にしたがって通信する。 Further, the terminal device 30 includes an RF tag reader / writer 622, an antenna I / F 623, and a vibration actuator 624. The RF tag reader / writer 622 communicates according to a standard such as NFC (Near Field Communication).

振動アクチュエータ624は、端末装置30を振動させるモータである。例えば、着信やメールを受信すると振動することで閲覧者にその旨を知らせることができる。 The vibration actuator 624 is a motor that vibrates the terminal device 30. For example, when an incoming call or an e-mail is received, it vibrates to notify the viewer to that effect.

更に、端末装置30は音声入力部609、音声出力部610、アンテナ611、通信部612、無線LAN通信部613、近距離無線通信用アンテナ614、近距離無線通信部615、ディスプレイ616、タッチパネル617及びバスライン619を備える。 Further, the terminal device 30 includes a voice input unit 609, a voice output unit 610, an antenna 611, a communication unit 612, a wireless LAN communication unit 613, a short-range wireless communication antenna 614, a short-range wireless communication unit 615, a display 616, a touch panel 617, and the like. It is equipped with a bus line 619.

音声入力部609は音声を音声信号に変換する。音声出力部610は音声信号を音声に変換する。通信部612はアンテナ611を利用して無線通信信号により最寄りの基地局装置と通信を行う。無線LAN通信部613はIEEE802.11規格に準拠する無線LAN通信を行う。 The voice input unit 609 converts the voice into a voice signal. The voice output unit 610 converts a voice signal into voice. The communication unit 612 uses the antenna 611 to communicate with the nearest base station device by a wireless communication signal. The wireless LAN communication unit 613 performs wireless LAN communication conforming to the IEEE802.11 standard.

近距離無線通信部615は近距離無線通信用アンテナ614を利用して例えばBluetooth(登録商標)、又は、Bluetooth Low Energy(登録商標)の通信規格にしたがった通信装置である。 The short-range wireless communication unit 615 is a communication device that uses the short-range wireless communication antenna 614 and conforms to, for example, Bluetooth (registered trademark) or Bluetooth Low Energy (registered trademark) communication standard.

ディスプレイ616は、被写体の画像や各種アイコン等を表示する液晶や有機EL等である。タッチパネル617は、ディスプレイ616上に載せられ、感圧式又は静電式のパネルによって構成され、指やタッチペン等によるタッチによってディスプレイ616上におけるタッチ位置を検出する。バスライン619は上記各部を電気的に接続するためのアドレスバスやデータバス等である。 The display 616 is a liquid crystal, an organic EL, or the like that displays an image of a subject, various icons, and the like. The touch panel 617 is mounted on the display 616 and is composed of a pressure-sensitive or electrostatic panel, and detects a touch position on the display 616 by touching with a finger, a touch pen, or the like. The bus line 619 is an address bus, a data bus, or the like for electrically connecting each of the above parts.

また、端末装置30は専用の電池618を備え、電池618又は商用電源のいずれによっても駆動され得る。なお、音声入力部609は音声を入力するマイクが含まれる。音声出力部610は音声を出力するスピーカが含まれている。 In addition, the terminal device 30 includes a dedicated battery 618 and can be driven by either the battery 618 or a commercial power source. The voice input unit 609 includes a microphone for inputting voice. The audio output unit 610 includes a speaker that outputs audio.

<全天球画像について>
図7〜図11を用いて全天球カメラ9で撮像された全天球画像6について説明する。図7は、全天球カメラ9の使用イメージ図である。全天球カメラ9は、図7に示されているように、ユーザが手に持ってユーザの周りの被写体を撮像する撮像装置である。全天球カメラ9は、2つの撮像素子の背面同士が対向させられた構造を有しており、それぞれユーザの周りの被写体を撮像することで、2つの半球画像を得る。
<About spherical images>
The omnidirectional image 6 captured by the omnidirectional camera 9 will be described with reference to FIGS. 7 to 11. FIG. 7 is a usage image diagram of the spherical camera 9. As shown in FIG. 7, the omnidirectional camera 9 is an imaging device that the user holds in his / her hand to image a subject around the user. The omnidirectional camera 9 has a structure in which the back surfaces of the two image pickup elements are opposed to each other, and two hemispherical images are obtained by imaging a subject around the user.

次に、図8及び図9を用いて、全天球カメラ9で撮像された画像から全天球画像6が作成されるまでの処理の概略を説明する。なお、図8(a)は全天球カメラ9で撮像された半球画像(前側)、図8(b)は全天球カメラ9で撮像された半球画像(後側)、図8(c)は正距円筒図法により表された画像(正距円筒射影画像)を示した図である。図9(a)は正距円筒射影画像で球を被う状態を示した概念図、図9(b)は全天球画像6を示した図である。 Next, the outline of the process from the image captured by the spherical camera 9 to the creation of the spherical image 6 will be described with reference to FIGS. 8 and 9. 8 (a) is a hemispherical image (front side) captured by the spherical camera 9, FIG. 8 (b) is a hemispherical image (rear side) captured by the spherical camera 9, FIG. 8 (c). Is a diagram showing an image represented by the equirectangular projection (rectangular projection image). FIG. 9A is a conceptual diagram showing a state of covering a sphere in an equirectangular cylindrical projection image, and FIG. 9B is a diagram showing a spherical image 6 of the whole celestial sphere.

図8(a)に示されているように、全天球カメラ9によって得られた画像は、魚眼レンズによって湾曲した半球画像(前側)となる。また、図8(b)に示されているように、全天球カメラ9によって得られた画像は、魚眼レンズによって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは、全天球カメラ9によって合成され、図8(c)に示されているように、正距円筒射影画像が作成される。これが全天球画像である。 As shown in FIG. 8A, the image obtained by the spherical camera 9 is a hemispherical image (front side) curved by a fisheye lens. Further, as shown in FIG. 8B, the image obtained by the spherical camera 9 is a hemispherical image (rear side) curved by a fisheye lens. Then, the hemispherical image (front side) and the hemispherical image (rear side) inverted 180 degrees are combined by the spherical camera 9, and as shown in FIG. 8 (c), the equirectangular projection image. Is created. This is a spherical image.

そして、OpenGL ES(Open Graphics Library for Embedded Systems)が利用されることで、図9(a)に示されているように、正距円筒射影画像が球面を覆うように貼り付けられ、図9(b)に示されているような全天球画像6が表示される。このように、全天球画像6は、正距円筒射影画像が球の中心を向いた画像として表される。なお、OpenGL ESは、2D(2−Dimensions)及び3D(3−Dimensions)のデータを視覚化するために使用するグラフィックスライブラリである。全天球画像6は、静止画であっても動画であってもよい。 Then, by using OpenGL ES (Open Graphics Library for Embedded Systems), as shown in FIG. 9A, the equirectangular projection image is pasted so as to cover the spherical surface, and FIG. 9 (A) The spherical image 6 as shown in b) is displayed. As described above, the spherical image 6 is represented as an image in which the equirectangular projection image faces the center of the sphere. OpenGL ES is a graphics library used to visualize 2D (2-Dimensions) and 3D (3-Dimensions) data. The spherical image 6 may be a still image or a moving image.

画像配信装置10が配信する広告データにはこの全天球画像6が含まれている。全天球画像6は、球面を覆うように貼り付けられて表示される画像であるため湾曲しており、人間が見ると違和感を持ってしまう。そこで、端末装置30は、全天球画像6の一部の所定領域Tを湾曲の少ない平面画像として表示することで、人間に違和感を与えないように表示する。所定領域Tは、三次元の仮想空間における座標(X,Y,Z)によって示される。一方、ディスプレイ616は二次元平面なので所定領域Tのままでは端末装置30が表示できない。そこで、3Dコンピュータグラフィックの技法を用いて三次元の物体を二次元平面に投影する透視投影変換により端末装置30は所定領域Tを得る。 The advertisement data distributed by the image distribution device 10 includes the spherical image 6. Since the spherical image 6 is an image that is pasted and displayed so as to cover the spherical surface, it is curved and gives a sense of discomfort to humans. Therefore, the terminal device 30 displays a part of the predetermined region T of the spherical image 6 as a flat image with little curvature so as not to give a sense of discomfort to humans. The predetermined area T is indicated by the coordinates (X, Y, Z) in the three-dimensional virtual space. On the other hand, since the display 616 is a two-dimensional plane, the terminal device 30 cannot display the predetermined area T as it is. Therefore, the terminal device 30 obtains a predetermined region T by a perspective projection conversion that projects a three-dimensional object onto a two-dimensional plane using a technique of 3D computer graphics.

図10は、閲覧者の視線を説明する図の一例である。全天球画像6は三次元の座標を有しているので、視線方向は三次元の座標又は緯度・経度などの球体の座標を特定する情報で特定される。本実施形態では、所定領域Tの中心点CPを視線方向とする。所定領域Tの中心点CPは球面座標系の(θ、φ)により特定される。θは経度、φは緯度を表す。 FIG. 10 is an example of a diagram for explaining the line of sight of the viewer. Since the spherical image 6 has three-dimensional coordinates, the line-of-sight direction is specified by the three-dimensional coordinates or information that specifies the coordinates of the sphere such as latitude and longitude. In the present embodiment, the center point CP of the predetermined region T is the line-of-sight direction. The center point CP of the predetermined region T is specified by (θ, φ) in the spherical coordinate system. θ represents longitude and φ represents latitude.

閲覧者は操作により視線方向を変えることができるが、仮想カメラICが平行移動しないと仮定すると、仮想カメラICは剛体としてロール(Z軸を中心とする回転)、ヨー(Y軸を中心とする回転)、及びピッチ(X軸を中心とする回転)の3つの回転が可能である。この3つの回転のいずれが生じても視線方向が変化する。例えば、閲覧者が全天球画像6を水平方向に回転させるとヨー角が変化し、上下方向に回転させるとピッチ角が変化し、ディスプレイ616の中心を軸に全天球画像6を回転させるとロール角が変化する。本実施形態では、閲覧者のWebページに対する操作が、視線方向(ロール角、ヨー角、ピッチ角)等に反映される。どのように反映されるかは表示プログラムに予め記述されているものとする。所定領域Tは拡大又は縮小も可能である。 The viewer can change the line-of-sight direction by operation, but assuming that the virtual camera IC does not translate, the virtual camera IC will be a rigid body with roll (rotation around the Z axis) and yaw (centered on the Y axis). Three rotations are possible: rotation) and pitch (rotation about the X-axis). The line-of-sight direction changes regardless of which of these three rotations occurs. For example, when the viewer rotates the spherical image 6 in the horizontal direction, the yaw angle changes, and when the viewer rotates the spherical image 6 in the vertical direction, the pitch angle changes, and the spherical image 6 is rotated around the center of the display 616. And the roll angle changes. In the present embodiment, the operation of the viewer on the Web page is reflected in the line-of-sight direction (roll angle, yaw angle, pitch angle) and the like. How it is reflected shall be described in advance in the display program. The predetermined area T can be enlarged or reduced.

閲覧者は広告枠7に対し上下左右にフリックすることで視線方向を変更する(画像データを回転させる)ことができる。 The viewer can change the line-of-sight direction (rotate the image data) by flicking the ad frame 7 up / down / left / right.

図11を用いて、所定領域情報と所定領域Tの画像の関係について説明する。なお、図11は、所定領域情報と所定領域Tの画像の関係の一例を示した図である。図11に示されているように、rHはHorizontal Radian(経度θ)、rVはVertical Radian(緯度φ)、αは画角(Angle)を示す。すなわち、撮像方向(θ,φ)で示される仮想カメラICの注視点が、仮想カメラICの撮像領域である所定領域Tの中心点CPとなるように、仮想カメラICの姿勢を変更することになる。所定領域画像Qは、全天球画像6における所定領域Tの画像である。fは仮想カメラICから中心点CPまでの距離である。Lは所定領域Tの任意の頂点と中心点CPとの距離である(2Lは対角線)。そして、図11では、一般的に以下の式(A)で示される三角関数が成り立つ。 The relationship between the predetermined area information and the image of the predetermined area T will be described with reference to FIG. Note that FIG. 11 is a diagram showing an example of the relationship between the predetermined area information and the image of the predetermined area T. As shown in FIG. 11, rH indicates Horizontal Radian (longitude θ), rV indicates Vertical Radian (latitude φ), and α indicates the angle of view (Angle). That is, the posture of the virtual camera IC is changed so that the gazing point of the virtual camera IC indicated by the imaging direction (θ, φ) becomes the center point CP of the predetermined region T which is the imaging region of the virtual camera IC. Become. The predetermined region image Q is an image of the predetermined region T in the spherical image 6. f is the distance from the virtual camera IC to the center point CP. L is the distance between an arbitrary vertex of the predetermined region T and the center point CP (2L is a diagonal line). Then, in FIG. 11, the trigonometric function generally represented by the following equation (A) holds.

Lf=tan(α/2) ・・・(A)
<3Dモデルを用いた投影画像の表示について>
続いて、3DCG画像について説明する。3DCG画像は閲覧者の操作で見え方が変わる(視点が変わる)ため、インタラクティブな広告を実現できる。
Lf = tan (α / 2) ・ ・ ・ (A)
<Display of projected image using 3D model>
Subsequently, the 3DCG image will be described. Since the appearance of the 3DCG image changes (the viewpoint changes) depending on the operation of the viewer, interactive advertising can be realized.

<3DCGについて>
3DCGとはコンピュータの演算によって三次元空間内の仮想的な立体物を2次元である平面上の情報に変換することで奥行き感(立体感)のある画像を作る手法である。3DCGは、モデリング、ワールド変換、ビュー変換、射影変換、ライティングなどのプロセスで作成される。なお、モデリングとワールド変換までは専用のソフトウェア上で作業され、ビュー変換、射影変換、ライティングは表示プログラムで実行される。
<About 3DCG>
3DCG is a method of creating an image with a sense of depth (three-dimensional effect) by converting a virtual three-dimensional object in a three-dimensional space into information on a two-dimensional plane by computer calculation. 3DCG is created by processes such as modeling, world transformation, view transformation, projective transformation, and lighting. Modeling and world conversion are performed on dedicated software, and view conversion, projective conversion, and lighting are executed by the display program.

モデリングはローカル座標系で作成者がオブジェクトの形状を定義すること、例えばポリゴンで形状を作成することをいう。ワールド変換は描画対象の三次元空間を表すワールド座標系にオブジェクトの座標を変換する(平行移動と回転)ことをいう(ワールド座標系にオブジェクトを配置すること)。ビュー変換はワールド座標系で閲覧者の視点を定めることに相当し、カメラの座標、カメラの注視点及びカメラの上方向を設定し、オブジェクトを特定の方向から見るための設定を行う処理である。視点は閲覧者の操作により決定されてもよいし、自動的に変更することもできる。射影変換は三次元空間のオブジェクトを2次元の平面に投影することをいう。ライティングは光源の位置に応じて明暗を与える処理をいう。 Modeling means that the creator defines the shape of an object in the local coordinate system, for example, creating a shape with polygons. World transformation refers to transforming the coordinates of an object into a world coordinate system that represents the three-dimensional space to be drawn (translation and rotation) (arranging an object in the world coordinate system). View conversion is equivalent to determining the viewpoint of the viewer in the world coordinate system, and is a process of setting the coordinates of the camera, the gazing point of the camera, and the upward direction of the camera, and setting the object to be viewed from a specific direction. .. The viewpoint may be determined by the operation of the viewer, or may be changed automatically. Homography is the projection of an object in three-dimensional space onto a two-dimensional plane. Lighting refers to the process of giving light and darkness according to the position of the light source.

図12は3Dモデルと射影変換を模式的に示す図である。図12(a)では、3Dモデル95に光軸を向けた仮想的なカメラ330が配置されている。図12(a)の3Dモデル95は車であるが一例に過ぎない。仮想的なカメラ330は3Dモデル95を中心に水平方向及び上下方向に360度、角度を変えることができる。閲覧者は任意の方向から3Dモデル95を閲覧できる。あるいは、仮想的なカメラ330は固定したままターンテーブル96上で3Dモデル95を回転させてもよい。 FIG. 12 is a diagram schematically showing a 3D model and a projective transformation. In FIG. 12A, a virtual camera 330 whose optical axis is directed to the 3D model 95 is arranged. The 3D model 95 of FIG. 12A is a car, but it is only an example. The virtual camera 330 can change the angle of the 3D model 95 in the horizontal direction and the vertical direction by 360 degrees. The viewer can browse the 3D model 95 from any direction. Alternatively, the 3D model 95 may be rotated on the turntable 96 while the virtual camera 330 is fixed.

図12(b)は、仮想的なカメラ330に3Dモデルを射影変換する様子を模式的に示している。ポリゴンや三次元点群で作成された3Dモデル95が平面に投影されている。平面に投影された画像を投影画像という。仮想的なカメラ330の位置を変えると(ビュー変換)カメラの位置に応じて3Dモデル95を投影できる。仮想的なカメラ330の位置は3Dモデル95の周囲の360度の任意の位置に変更できるので、閲覧者は限られた広告枠7の範囲で様々な角度から3Dモデル95を閲覧できる。 FIG. 12B schematically shows how the 3D model is projected and converted into the virtual camera 330. A 3D model 95 created by polygons and a group of three-dimensional points is projected on a plane. An image projected on a plane is called a projected image. By changing the position of the virtual camera 330 (view conversion), the 3D model 95 can be projected according to the position of the camera. Since the position of the virtual camera 330 can be changed to an arbitrary position of 360 degrees around the 3D model 95, the viewer can view the 3D model 95 from various angles within the limited ad space 7.

図13は、視点を変えて表示された3Dモデル95の一例である。図13(a)〜図13(c)のように様々な角度から撮像された3Dモデル95の投影画像を、図13(d)〜(f)に示している。このような視点の異なる投影画像が表示パターンにしたがって、次々に広告枠7に表示される。また、閲覧者は自らの操作で広告枠7に表示された3Dモデル95を回転させ、1つの広告枠7で様々な角度から1つの3Dモデル95を閲覧することができる。 FIG. 13 is an example of the 3D model 95 displayed from different viewpoints. Projected images of the 3D model 95 taken from various angles as shown in FIGS. 13 (a) to 13 (c) are shown in FIGS. 13 (d) to 13 (f). Such projected images having different viewpoints are displayed one after another in the advertising space 7 according to the display pattern. In addition, the viewer can rotate the 3D model 95 displayed in the advertising space 7 by his / her own operation, and can browse one 3D model 95 from various angles with one advertising space 7.

<Webページが使用する情報>
図14は、Webページが使用する情報を模式的に説明する図の一例である。図14(a)はパートナーサイトWebサーバ60が提供するWebページである。パートナーサイトWebサーバ60が提供するWebページは1つ以上の広告枠7を有している。また、端末装置30のブラウザは予めSSPクッキーとDSPクッキーを保持している。広告枠7にはSSP50のURL及び広告枠ID等が対応付けられている。端末装置30のブラウザ(後述の広告枠検出部36)はSSPクッキー、及びリクエスト内容をSSP50に送信する。また、広告枠7を落札したDSP20のURLを含むアクセス情報1と落札IDがSSP50から端末装置30に送信される。
<Information used by web pages>
FIG. 14 is an example of a diagram schematically explaining information used by a Web page. FIG. 14A is a Web page provided by the partner site Web server 60. The Web page provided by the partner site Web server 60 has one or more advertising space 7. Further, the browser of the terminal device 30 holds the SSP cookie and the DSP cookie in advance. The URL of the SSP 50, the advertising space ID, and the like are associated with the advertising space 7. The browser of the terminal device 30 (advertising space detection unit 36 described later) transmits the SSP cookie and the request content to the SSP 50. Further, the access information 1 including the URL of the DSP 20 that has made a successful bid for the advertising space 7 and the successful bid ID are transmitted from the SSP 50 to the terminal device 30.

図14(b)はアクセス情報1に基づく動作を説明する図である。端末装置30はDSP20のURLに基づいてDSP20に落札IDとDSPクッキーを送信する。DSP20は落札IDで広告リクエストを特定し、画像配信装置10から画像配信装置10のURLと広告機会IDを含むアクセス情報2を取得する。端末装置30はアクセス情報2と広告機会IDをDSP20から取得する。 FIG. 14B is a diagram illustrating an operation based on the access information 1. The terminal device 30 transmits the winning bid ID and the DSP cookie to the DSP 20 based on the URL of the DSP 20. The DSP 20 identifies the advertisement request by the winning bid ID, and acquires the access information 2 including the URL of the image distribution device 10 and the advertisement opportunity ID from the image distribution device 10. The terminal device 30 acquires the access information 2 and the advertisement opportunity ID from the DSP 20.

図14(c)はアクセス情報2に基づく動作を説明する図である。端末装置30は画像配信装置10のURLに基づいて画像配信装置10に広告機会IDを送信する。画像配信装置10は広告機会IDで特定される広告リクエスト等に基づいて広告データを生成し、画像クッキー、広告枠ID及び表示パターンと共に端末装置30に送信する。このようにして、Webページの広告枠7に全天球画像6が表示される。 FIG. 14C is a diagram illustrating an operation based on the access information 2. The terminal device 30 transmits the advertisement opportunity ID to the image distribution device 10 based on the URL of the image distribution device 10. The image distribution device 10 generates advertisement data based on an advertisement request or the like specified by an advertisement opportunity ID, and transmits the advertisement data together with an image cookie, an advertisement space ID, and a display pattern to the terminal device 30. In this way, the spherical image 6 is displayed in the advertising space 7 of the Web page.

<機能について>
図15は端末装置30、広告主Webサーバ70、パートナーサイトWebサーバ60、画像配信装置10、SSP50及びDSP20の機能をブロック状に示す機能ブロック図の一例である。
<About functions>
FIG. 15 is an example of a functional block diagram showing the functions of the terminal device 30, the advertiser Web server 70, the partner site Web server 60, the image distribution device 10, the SSP 50, and the DSP 20 in a block shape.

<<広告主Webサーバ、パートナーサイトWebサーバ>>
広告主Webサーバ70とパートナーサイトWebサーバ60は、Webページ提供部71を有している。広告主Webサーバ70とパートナーサイトWebサーバ60が有するこれらの各機能は、HDD208からRAM204に展開されたプログラム208pをCPU206が実行することにより実現される機能又は手段である。
<< Advertiser Web Server, Partner Site Web Server >>
The advertiser Web server 70 and the partner site Web server 60 have a Web page providing unit 71. Each of these functions possessed by the advertiser Web server 70 and the partner site Web server 60 is a function or means realized by the CPU 206 executing the program 208p expanded from the HDD 208 to the RAM 204.

Webページ提供部71は、例えば一般的なHTTP通信を行い、端末装置30からのWebページの要求に対しWebページを構築して端末装置30に送信する。処理に必要であればアプリケーションサーバに処理を依頼し、処理結果をWebページに配置して送信する。 The Web page providing unit 71 performs, for example, general HTTP communication, constructs a Web page in response to a request for a Web page from the terminal device 30, and transmits the Web page to the terminal device 30. If necessary for processing, the application server is requested to process, and the processing result is arranged on the Web page and transmitted.

広告主Webサーバ70のWebページには広告主のクッキーとDSPクッキーが含まれている。広告主Webサーバ70はDSP20に広告の配信を依頼しているためである。これによりリターゲッティング広告等が可能になる。パートナーサイトWebサーバ60のWebページにはパートナーサイトのクッキーとSSPクッキーが含まれている。パートナーサイトWebサーバ60はSSP50に広告枠7の販売を依頼しているためである。 The Web page of the advertiser Web server 70 includes an advertiser cookie and a DSP cookie. This is because the advertiser Web server 70 requests the DSP 20 to deliver the advertisement. This enables retargeting advertisements and the like. The Web page of the partner site Web server 60 includes the partner site cookie and the SSP cookie. This is because the partner site Web server 60 requests the SSP 50 to sell the advertising space 7.

<<SSP>>
SSP50は、広告リクエスト部51、広告要求取得部52、アクセス情報送信部53、及び、落札部54を有している。SSP50が有するこれらの各機能は、HDD208からRAM204に展開されたプログラム208pをCPU206が実行することにより実現される機能又は手段である。
<< SSP >>
The SSP 50 has an advertisement request unit 51, an advertisement request acquisition unit 52, an access information transmission unit 53, and a successful bid unit 54. Each of these functions possessed by the SSP 50 is a function or means realized by the CPU 206 executing the program 208p expanded from the HDD 208 to the RAM 204.

広告要求取得部52は、端末装置30が広告枠7に対応づけられた広告タグを実行することでSSPクッキーと共に要求する広告リクエストを取得する。広告要求取得部52はSSPクッキーが含まれる広告リクエストを広告リクエスト部51に送出する。 The advertisement request acquisition unit 52 acquires the advertisement request requested together with the SSP cookie by executing the advertisement tag associated with the advertisement space 7 by the terminal device 30. The advertisement request acquisition unit 52 sends an advertisement request including an SSP cookie to the advertisement request unit 51.

広告リクエスト部51は、DSP20に対し広告リクエストを送信する。広告リクエストには、SSPクッキー、パートナーサイトWebサーバ60のドメイン、広告枠ID、広告枠7サイズ、広告フォーマット、ブラウザ種類、OS種類等が含まれる。 The advertisement request unit 51 transmits an advertisement request to the DSP 20. The advertisement request includes an SSP cookie, a domain of the partner site Web server 60, an advertisement space ID, an advertisement space 7 size, an advertisement format, a browser type, an OS type, and the like.

落札部54はDSP20から入札を受け付け、基本的に最も高い入札金額のDSP20に広告枠7を販売するオークションを行う(広告主の製品やサービスによっては入札を受け付けない)。落札部54は落札IDを生成してDSP20に通知する。 The successful bidder 54 accepts bids from the DSP 20 and basically conducts an auction to sell the ad space 7 to the highest bid price DSP 20 (depending on the advertiser's product or service, the bid is not accepted). The successful bidder 54 generates a successful bid ID and notifies the DSP 20.

アクセス情報送信部53は落札したDSP20に対し広告を要求するためのアクセス情報1を生成し落札IDと共に端末装置30に送信する。アクセス情報1にはDSP20のURL(IPアドレス)が含まれる。 The access information transmission unit 53 generates access information 1 for requesting an advertisement from the successful bidder DSP 20 and transmits it to the terminal device 30 together with the successful bid ID. The access information 1 includes the URL (IP address) of the DSP 20.

<<DSP>>
DSP20は、リクエスト受付部21、入札判断部22、入札部23、広告要求受付部24、及び、画像依頼部25を有している。DSP20が有するこれらの各機能は、HDD208からRAM204に展開されたプログラム208pをCPU206が実行することにより実現される機能又は手段である。
<< DSP >>
The DSP 20 has a request reception unit 21, a bid determination unit 22, a bid unit 23, an advertisement request reception unit 24, and an image request unit 25. Each of these functions possessed by the DSP 20 is a function or means realized by the CPU 206 executing the program 208p expanded from the HDD 208 to the RAM 204.

また、記憶部29には、クッキー情報DB291と配信設定DB292が構築されている。記憶部29は、図5に示したHDD208又はRAM204により実現される。 Further, a cookie information DB 291 and a distribution setting DB 292 are constructed in the storage unit 29. The storage unit 29 is realized by the HDD 208 or the RAM 204 shown in FIG.

表1はクッキー情報DB291に記憶される情報を模式的に示す。クッキー情報DB291はDSPクッキーとSSPクッキーを対応付けると共に、閲覧者が訪問した訪問ドメインが登録されている。DSPクッキーとSSPクッキーの対応付けはクッキーシンクと呼ばれる技術により可能である。また、訪問ドメインはDSP20がタグ(行動監視タグ)を貼り付けたWebサイトを閲覧者が訪問することで得られる。したがって、DSP20は、SSPクッキーからDSPクッキーを特定でき、更に、この閲覧者がどのようなWebサイトに興味を持っているかを判断できる。 Table 1 schematically shows the information stored in the cookie information DB 291. The cookie information DB 291 associates the DSP cookie with the SSP cookie, and the visited domain visited by the viewer is registered. The association between the DSP cookie and the SSP cookie is possible by a technique called cookie sync. In addition, the visit domain is obtained by a visitor visiting a website to which the DSP 20 has a tag (behavior monitoring tag) attached. Therefore, the DSP 20 can identify the DSP cookie from the SSP cookie, and can further determine what kind of website the viewer is interested in.

表2は配信設定DB292に記憶される情報を模式的に示す。配信設定DB292には、広告主ID、広告対象属性(好ましい対象者の属性)、及び、非広告対象属性(好ましくない対象者の属性)が登録されている。広告主IDは広角画像を提供する提供元になる広告主を特定又は識別するための識別情報である。したがって、DSP20又は画像配信装置10は、広角画像の提供元に対し設定されている好ましい対象者の属性又は好ましくない対象者の属性を参照して、広角画像を送信するか否かを決定することができる。 Table 2 schematically shows the information stored in the distribution setting DB 292. Advertiser ID, advertisement target attribute (favorable target person attribute), and non-advertisement target attribute (undesirable target person attribute) are registered in the distribution setting DB 292. The advertiser ID is identification information for identifying or identifying the advertiser who is the provider of the wide-angle image. Therefore, the DSP 20 or the image distribution device 10 determines whether or not to transmit the wide-angle image by referring to the attributes of the preferred target person or the unfavorable target person set for the provider of the wide-angle image. Can be done.

なお、IDはIdentificationの略であり識別子や識別情報という意味である。IDは複数の対象から、ある特定の対象を一意的に区別するために用いられる名称、符号、文字列、数値又はこれらのうち1つ以上の組み合わせをいう。以下のIDについても同様である。広告対象属性は広告主が広告を配信したい閲覧者の属性であり、非広告対象属性は広告主が広告を配信したくない閲覧者の属性である。DSP20はクッキー情報DB291等から判断される閲覧者の属性と配信設定DB292の情報を比較して閲覧者の属性を数値化し、入札金額を決定する。なお、入札金額の決定には時間帯、曜日、閲覧者の地域等、各種の情報が考慮されてよい。 ID is an abbreviation for Identification and means an identifier or identification information. An ID refers to a name, a code, a character string, a numerical value, or a combination of one or more of these, which is used to uniquely distinguish a specific object from a plurality of objects. The same applies to the following IDs. The advertising target attribute is the attribute of the viewer who the advertiser wants to deliver the advertisement, and the non-advertising target attribute is the attribute of the viewer who the advertiser does not want to deliver the advertisement. The DSP 20 compares the attribute of the viewer determined from the cookie information DB 291 and the information of the distribution setting DB 292, quantifies the attribute of the viewer, and determines the bid amount. In addition, various information such as the time zone, the day of the week, and the area of the viewer may be taken into consideration when determining the bid amount.

(DSPの機能)
リクエスト受付部21はSSP50から広告リクエストを受けつける。リクエスト情報により端末装置30の広告枠ID等の基本的な情報が得られる。
(DSP function)
The request reception unit 21 receives an advertisement request from the SSP 50. From the request information, basic information such as the advertising space ID of the terminal device 30 can be obtained.

入札判断部22はリクエスト受付部21が受けつけた広告リクエストをクッキー情報DB291と配信設定DB292を参照して評価することで入札金額を決定する(入札しない場合もある)。上記のように、SSPクッキーからDSPクッキーを特定し、DSPクッキーに対応付けて蓄積されている属性情報が、配信設定DB292に記憶された広告主の依頼とどの程度一致するかにより入札金額を決定する。 The bid determination unit 22 determines the bid amount by evaluating the advertisement request received by the request reception unit 21 with reference to the cookie information DB 291 and the distribution setting DB 292 (the bid amount may not be bid). As described above, the DSP cookie is identified from the SSP cookie, and the bid amount is determined based on how much the attribute information stored in association with the DSP cookie matches the advertiser's request stored in the distribution setting DB 292. To do.

入札部23は、決定された入札金額でSSP50に入札する。落札できた場合は落札IDを取得し、広告リクエストと対応付けておく。 The bidding unit 23 bids on the SSP 50 at the determined bid amount. If a successful bid is successful, the successful bid ID is acquired and associated with the advertisement request.

広告要求受付部24は、アクセス情報1に基づく端末装置30からの広告要求(落札ID、DSPクッキー)を取得する。広告要求受付部24は落札IDにより広告リクエストを特定する。DSPクッキーはなくてもよく、SSPクッキーとDSPクッキーが対応付けられていない場合に使用される。 The advertisement request receiving unit 24 acquires an advertisement request (successful bid ID, DSP cookie) from the terminal device 30 based on the access information 1. The advertisement request reception unit 24 identifies the advertisement request by the winning bid ID. The DSP cookie does not have to be present, and is used when the SSP cookie and the DSP cookie are not associated with each other.

画像依頼部25はDSPクッキー、広告主ID、及びリクエスト内容と共にアクセス情報2を画像配信装置10に対し要求する。広告主IDにより広告主が特定される。リクエスト内容の広告枠IDにより広告枠7が特定される。更に、閲覧者の属性を画像配信装置10に送信してもよい。これにより、画像配信装置10は閲覧者に適した全天球画像6を配信できる。 The image requesting unit 25 requests the image distribution device 10 for access information 2 together with the DSP cookie, the advertiser ID, and the request contents. The advertiser is identified by the advertiser ID. The ad space 7 is specified by the ad space ID of the request content. Further, the attributes of the viewer may be transmitted to the image distribution device 10. As a result, the image distribution device 10 can distribute the spherical image 6 suitable for the viewer.

<<端末装置>>
端末装置30は、Webページ取得部31、Webページ解析部32、Webページ表示部33、操作受付部34、及びスクリプト実行部35を有している。端末装置30が有するこれらの各機能は、EEPROM604からRAM603に展開されたプログラム604pをCPU601が実行することにより実現される機能又は手段である。
<< Terminal device >>
The terminal device 30 has a Web page acquisition unit 31, a Web page analysis unit 32, a Web page display unit 33, an operation reception unit 34, and a script execution unit 35. Each of these functions possessed by the terminal device 30 is a function or means realized by the CPU 601 executing the program 604p developed from the EEPROM 604 to the RAM 603.

操作受付部34は、端末装置30に対する各種の操作を受け付ける。具体的には、端末装置30が実行するブラウザに対する操作を受け付ける。操作受付部34はWebページに対する操作を受け付ける。スクリプトに基づく画像データへの操作は画像操作受付部43が受け付ける。 The operation reception unit 34 receives various operations on the terminal device 30. Specifically, it accepts operations on the browser executed by the terminal device 30. The operation reception unit 34 receives an operation for a Web page. The image operation receiving unit 43 accepts the operation on the image data based on the script.

Webページ取得部31は、閲覧者の操作により又はスクリプトの動作により広告主Webサーバ70及びパートナーサイトWebサーバ60と通信して、広告主Webサーバ70及びパートナーサイトWebサーバ60からWebページを取得する。 The Web page acquisition unit 31 communicates with the advertiser Web server 70 and the partner site Web server 60 by the operation of the viewer or the operation of the script, and acquires the Web page from the advertiser Web server 70 and the partner site Web server 60. ..

Webページ解析部32は、画面情報に含まれるHTMLを先頭から順番に読み取りHTMLに含まれる文章や画像データの構造を解析する。また、CSSに記述されたHTMLの文章や画像データとの紐付けを検出して、HTMLに含まれる文章や画像データのスタイルを対応付ける。また、Webページ解析部32は、HTMLからscriptタグを検出してスクリプト言語で記述されているスクリプトを抽出する。Webページ解析部32はHTMLとCSSをWebページ表示部33に送出し、スクリプトをスクリプト実行部35に送出する。 The Web page analysis unit 32 reads HTML included in the screen information in order from the beginning and analyzes the structure of sentences and image data included in the HTML. In addition, the association with the HTML text or image data described in CSS is detected, and the style of the text or image data included in the HTML is associated. Further, the Web page analysis unit 32 detects a script tag from HTML and extracts a script written in the script language. The Web page analysis unit 32 sends HTML and CSS to the Web page display unit 33, and sends a script to the script execution unit 35.

Webページ表示部33はHTMLの先頭から解析が終わった順にWebページをディスプレイ616に表示していく。また、Webページに対する操作に応じてWebページを更新する。 The Web page display unit 33 displays the Web pages on the display 616 in the order in which the analysis is completed from the beginning of the HTML. In addition, the Web page is updated according to the operation on the Web page.

スクリプト実行部35は、Webページ解析部32が抽出したスクリプトを実行する。スクリプトの具体的な内容はWebページによって様々である。本実施形態ではスクリプトとして、広告枠7に対応付けられた広告タグ、SSP50から取得するアクセス情報1、DSP20から取得するアクセス情報2、画像配信装置10から配信される広告データが検出される。スクリプト実行部35は、図6に示したCPU601がプログラム604pを実行すること等により実現される。また、スクリプト実行部35が有する各機能又は手段は、CPU601がスクリプトを実行することで実現される。 The script execution unit 35 executes the script extracted by the Web page analysis unit 32. The specific content of the script varies depending on the Web page. In the present embodiment, as a script, an advertisement tag associated with the advertisement space 7, access information 1 acquired from the SSP 50, access information 2 acquired from the DSP 20, and advertisement data distributed from the image distribution device 10 are detected. The script execution unit 35 is realized by the CPU 601 shown in FIG. 6 executing the program 604p or the like. Further, each function or means possessed by the script execution unit 35 is realized by executing the script by the CPU 601.

広告枠検出部36は、Webページ取得部31が取得した画面情報に含まれる広告枠7に対応付けられた広告タグを端末装置30が実行して実現される機能である。広告枠検出部36は広告枠7に対応づけられたURLに基づいてSSPクッキーと共に広告リクエストをSSP50に送信する。 The advertisement space detection unit 36 is a function realized by the terminal device 30 executing an advertisement tag associated with the advertisement space 7 included in the screen information acquired by the Web page acquisition unit 31. The ad space detection unit 36 transmits an advertisement request to the SSP 50 together with the SSP cookie based on the URL associated with the ad space 7.

アクセス情報取得部37は、SSP50からアクセス情報1を取得する。アクセス情報1はスクリプトで記述されている。広告要求部38は、アクセス情報1に含まれるURLに基づいてDSP20にアクセスし落札IDとDSPクッキーと共に広告を要求する。広告要求部38はこの要求に対しアクセス情報2と広告機会IDを取得する。アクセス情報2もスクリプトで記述されている。 The access information acquisition unit 37 acquires the access information 1 from the SSP 50. Access information 1 is described by a script. The advertisement requesting unit 38 accesses the DSP 20 based on the URL included in the access information 1 and requests an advertisement together with the winning bid ID and the DSP cookie. The advertisement request unit 38 acquires the access information 2 and the advertisement opportunity ID in response to this request. Access information 2 is also described in a script.

広告取得部39はアクセス情報2に含まれる画像配信装置10のURLに基づき、広告機会IDを指定して、画像配信装置10に対し広告データを要求する。画像配信装置10は広告データを生成するので、広告取得部39は広告データを取得する。本実施形態の広告データは、コンテンツ(全天球画像6及び/又は3DCG画像)、表示パターン、表示プログラム及び操作履歴プログラムを含む。操作履歴プログラムは操作履歴を画像配信装置10に送信させる。表示プログラムは表示パターンで全天球画像6や3DCG画像を回転させ、全天球画像6又は3DCG画像への操作を全天球画像6又は3DCG画像の外観に反映させる。操作履歴プログラムと表示プログラムもスクリプト言語で記述されており、スクリプト実行部35により実行される。 The advertisement acquisition unit 39 specifies an advertisement opportunity ID based on the URL of the image distribution device 10 included in the access information 2, and requests the image distribution device 10 for advertisement data. Since the image distribution device 10 generates the advertisement data, the advertisement acquisition unit 39 acquires the advertisement data. The advertising data of the present embodiment includes contents (omnidirectional image 6 and / or 3DCG image), a display pattern, a display program, and an operation history program. The operation history program causes the image distribution device 10 to transmit the operation history. The display program rotates the all-sky image 6 or the 3DCG image with the display pattern, and reflects the operation on the all-sky image 6 or the 3DCG image on the appearance of the all-sky image 6 or the 3DCG image. The operation history program and the display program are also written in the script language and are executed by the script execution unit 35.

広告表示部40は、画像配信装置10から取得した広告データを表示する。広告表示部40は主に表示プログラムで実現され、広告枠7に全天球画像6から生成された所定領域画像又は3DCG画像から生成された投影画像を表示し更に自動的に回転させたりする。 The advertisement display unit 40 displays the advertisement data acquired from the image distribution device 10. The advertisement display unit 40 is mainly realized by a display program, displays a predetermined region image generated from the all-sky image 6 or a projected image generated from a 3DCG image on the advertisement frame 7, and further automatically rotates the advertisement display unit 40.

表示画像生成部44は画像配信装置10から取得した表示パターンで広告枠7に表示する画像(所定領域画像又は投影画像)をコンテンツから生成する。すなわち、全天球画像6を回転させたり、3DCG画像における仮想的なカメラ330の位置を次々に変更したりして、1つのコンテンツから広告枠7に表示する複数の表示画像(アニメーション)を生成する。広告表示部40は表示画像生成部44が生成した複数の表示画像を表示する。 The display image generation unit 44 generates an image (predetermined area image or projected image) to be displayed in the advertising space 7 from the content with the display pattern acquired from the image distribution device 10. That is, a plurality of display images (animations) to be displayed in the advertising space 7 are generated from one content by rotating the spherical image 6 or changing the position of the virtual camera 330 in the 3DCG image one after another. To do. The advertisement display unit 40 displays a plurality of display images generated by the display image generation unit 44.

画像操作受付部43はポインティングデバイス(ディスプレイ616がタッチパネルの場合は指、棒状部材又は専用ペンとタッチパネル、マウスが使用される場合はマウスポインタ、トラックボールが使用される場合はマウスポインタ)の座標が広告枠7に含まれる場合、Webページへの操作よりも優先して画像データへの操作を受け付ける。これにより、閲覧者が広告枠7の上でフリックしたりスワイプしたりした場合、Webページでなく画像データを変化させることができる。 The image operation reception unit 43 has the coordinates of a pointing device (a finger when the display 616 is a touch panel, a rod-shaped member or a dedicated pen and a touch panel, a mouse pointer when a mouse is used, and a mouse pointer when a trackball is used). When it is included in the ad space 7, the operation on the image data is accepted with priority over the operation on the Web page. As a result, when the viewer flicks or swipes on the ad space 7, the image data can be changed instead of the Web page.

画像配信装置10から広告データを取得することで端末装置30は画像配信装置10の画像クッキーを取得し記憶部49に記憶できる。広告取得部39が画像クッキーを画像配信装置10に送信することで、画像配信装置10ではDSPクッキーと画像クッキーを対応付けることができる。 By acquiring the advertisement data from the image distribution device 10, the terminal device 30 can acquire the image cookie of the image distribution device 10 and store it in the storage unit 49. When the advertisement acquisition unit 39 transmits the image cookie to the image distribution device 10, the image distribution device 10 can associate the DSP cookie with the image cookie.

操作履歴記録部41は、主に操作履歴プログラムにより実現され、全天球画像6又は3DCGに対する操作情報を操作履歴として記録する。操作履歴の詳細は画像配信装置10において説明する。操作履歴送信部42は、主に操作履歴プログラムにより実現され、広告枠7に表示された全天球画像6又は3DCGに対する操作履歴を画像クッキー及び画像ID(全天球画像6を識別する)と共に画像配信装置10に送信する。また、クリックされた場合は更に表示パターンと共にその旨を画像配信装置10に送信する。 The operation history recording unit 41 is mainly realized by an operation history program, and records operation information for the spherical image 6 or 3DCG as an operation history. Details of the operation history will be described in the image distribution device 10. The operation history transmission unit 42 is realized mainly by the operation history program, and displays the operation history for the spherical image 6 or 3DCG displayed in the advertising space 7 together with the image cookie and the image ID (identifying the spherical image 6). It is transmitted to the image distribution device 10. Further, when the image is clicked, the image distribution device 10 is further transmitted to that effect together with the display pattern.

<<画像配信装置>>
画像配信装置10は、画像情報応答部11、広告配信部12、注目点決定部13、操作履歴取得部14、コンテンツ受付部15、表示パターン生成部16、及び、制約部17を有している。画像配信装置10が有するこれらの各機能は、HDD208からRAM204に展開されたプログラム208pをCPU206が実行することにより実現される機能又は手段である。
<< Image distribution device >>
The image distribution device 10 has an image information response unit 11, an advertisement distribution unit 12, a point of interest determination unit 13, an operation history acquisition unit 14, a content reception unit 15, a display pattern generation unit 16, and a constraint unit 17. .. Each of these functions of the image distribution device 10 is a function or means realized by the CPU 206 executing the program 208p expanded from the HDD 208 to the RAM 204.

また、画像配信装置10は、図5に示したHDD208又はRAM204により実現される記憶部19を有している。記憶部19には、配信履歴DB191、操作履歴DB192、クッキー対応DB193、広告画像DB194、パターンDB195及び表示プログラム196が構築されている。 Further, the image distribution device 10 has a storage unit 19 realized by the HDD 208 or the RAM 204 shown in FIG. A distribution history DB 191, an operation history DB 192, a cookie-compatible DB 193, an advertisement image DB 194, a pattern DB 195, and a display program 196 are constructed in the storage unit 19.

表3は、操作履歴DB192に記憶される情報を模式的に示す。操作履歴DB192には各閲覧者が全天球画像6に対しどのような操作を行ったのかという履歴が記録されている。操作履歴DB192には画像ID、閲覧時刻、画像クッキー、閲覧画角1〜3の各項目が記録されている。画像IDは全天球画像6を特定するための情報である。画像クッキーは端末装置30を操作する閲覧者又は端末装置30の同一性を判別する情報になる(装置識別情報の一例)。閲覧画角1〜3は閲覧者が全天球画像6を閲覧した際の画角である。各閲覧画角1〜3には閲覧時間、拡大の有無、拡大した場合は拡大後の画角、及び、縮小の有無、が格納されている。このように、各画像ごとに閲覧者が興味を持ったと考えられる画角が記録される。閲覧画角1〜3は、閲覧者が全天球画像6を回転させずに静止した時間が所定時間(例えば1秒)以上の画角である。端末装置30の操作履歴記録部41は静止した時間が上位3つの画角を記録する。1つだけでもよいし4つ以上でもよい。同様に、操作履歴記録部41はそれぞれの閲覧画角1〜3で閲覧者が拡大又は縮小したか否かを記録する。画像配信装置10はこのような操作履歴を注目点Pとする場合がある。更に、画像IDに画像クッキーが対応付けられていればリターゲッティング広告が可能になる。操作履歴としてクリック時画角を記録してもよい。 Table 3 schematically shows the information stored in the operation history DB 192. The operation history DB 192 records a history of what kind of operation each viewer has performed on the spherical image 6. Each item of the image ID, the viewing time, the image cookie, and the viewing angle of view 1 to 3 is recorded in the operation history DB 192. The image ID is information for identifying the spherical image 6. The image cookie serves as information for determining the identity of the viewer who operates the terminal device 30 or the terminal device 30 (an example of device identification information). The viewing angles of view 1 to 3 are the angles of view when the viewer views the spherical image 6. The viewing angle of view 1 to 3 stores the viewing time, the presence / absence of enlargement, the angle of view after enlargement when enlarged, and the presence / absence of reduction. In this way, the angle of view considered to be of interest to the viewer is recorded for each image. The viewing angles of view 1 to 3 are angles of view in which the viewer stands still for a predetermined time (for example, 1 second) or more without rotating the spherical image 6. The operation history recording unit 41 of the terminal device 30 records the top three angles of view when it is stationary. It may be only one or four or more. Similarly, the operation history recording unit 41 records whether or not the viewer has expanded or contracted at each viewing angle of view 1 to 3. The image distribution device 10 may set such an operation history as a point of interest P. Further, if the image ID is associated with the image cookie, the retargeting advertisement becomes possible. The angle of view at the time of clicking may be recorded as the operation history.

表4は、広告画像DB194に記憶されている情報を模式的に示す。広告画像DB194には、広告の対象となる全天球画像6又は3DCGに関する情報が登録されている。広告画像DB194には、広告主ID、画像ID、優先度、及び、対象属性が対応付けて登録されている。DSP20により広告主が決定されるので、この広告主が配信したい画像のうち、閲覧者の属性と表4の対象属性の一致度又は優先度の少なくとも一方に基づいて配信する画像が決定される。配信時には全天球画像6の初期位置が指定される(表示パターンも配信された場合は表示パターンが優先される)。画像IDには全天球画像6又は3DCG画像の少なくとも一方が対応付けられている。なお、リターゲッティング広告の場合は、操作履歴DB192で画像クッキーに対応付けられた画像が配信される。 Table 4 schematically shows the information stored in the advertisement image DB 194. Information about the spherical image 6 or 3DCG to be advertised is registered in the advertisement image DB 194. In the advertisement image DB 194, an advertiser ID, an image ID, a priority, and a target attribute are registered in association with each other. Since the advertiser is determined by the DSP 20, among the images that the advertiser wants to distribute, the image to be distributed is determined based on at least one of the degree of agreement or the priority of the attribute of the viewer and the target attribute in Table 4. At the time of distribution, the initial position of the spherical image 6 is specified (if the display pattern is also distributed, the display pattern has priority). At least one of the spherical image 6 and the 3DCG image is associated with the image ID. In the case of the retargeting advertisement, the image associated with the image cookie is delivered in the operation history DB 192.

表5は、クッキー対応DB193に記憶されている情報を模式的に示す。クッキー対応DB193には、DSPクッキーと画像クッキーが対応付けられている。DSPクッキーはDSP20から通知され、画像クッキーは端末装置30から通知される。両者が対応付けられることでDSPクッキーだけで画像配信装置10が閲覧者を判別できるようになる。 Table 5 schematically shows the information stored in the cookie-compatible DB193. A DSP cookie and an image cookie are associated with the cookie-compatible DB 193. The DSP cookie is notified from the DSP 20, and the image cookie is notified from the terminal device 30. By associating the two, the image distribution device 10 can identify the viewer only by the DSP cookie.

表6は、パターンDB195に登録されている情報を模式的に示す。パターンDB195には全天球画像6又は3DCG画像の注目点Pを表示させる表示パターンが登録されている。画像IDにはパターンIDが対応付けられており、パターンIDには表示パターンが対応付けられている。表示パターンは1つ以上(好ましくは複数)のパラメータが時系列に設定されたものである。1つのパラメータは全天球画像6の中心点CP又は3DCG画像における仮想的なカメラ330の位置(すなわち閲覧者の視点)を意味する。各パラメータは制約部17により制約された遷移禁止領域81を含まないように決定されている。パラメータの詳細は後述される。クリック回数はこの表示パターンごとに閲覧者がクリックした回数である。つまり、画像配信装置10は同じ全天球画像6又は3DCG画像を同じ表示パターンで全天球画像6又は3DCG画像を複数の端末装置30に表示させ、端末装置30がクリックした旨を記録する。こうすることで、クリック率の低い表示パターンによる配信を徐々に回避できる。なお、クリック回数は閲覧者の属性(性別、年代、家族構成等)ごとに記録することが好適である。これにより、閲覧者の属性に対しクリック回数が多い表示パターンで表示できる。 Table 6 schematically shows the information registered in the pattern DB 195. In the pattern DB 195, a display pattern for displaying the attention point P of the spherical image 6 or the 3DCG image is registered. A pattern ID is associated with the image ID, and a display pattern is associated with the pattern ID. The display pattern is one in which one or more (preferably a plurality) parameters are set in time series. One parameter means the position of the virtual camera 330 (ie, the viewer's point of view) in the central point CP or 3DCG image of the spherical image 6. Each parameter is determined not to include the transition prohibition region 81 constrained by the constraint unit 17. Details of the parameters will be described later. The number of clicks is the number of clicks by the viewer for each display pattern. That is, the image distribution device 10 displays the same celestial sphere image 6 or 3DCG image on a plurality of terminal devices 30 with the same display pattern, and records that the terminal device 30 clicks. By doing so, it is possible to gradually avoid distribution by a display pattern with a low click rate. It is preferable to record the number of clicks for each viewer's attributes (gender, age, family structure, etc.). As a result, it is possible to display a display pattern in which the number of clicks is large with respect to the attributes of the viewer.

表7は、配信履歴DB191に登録されている情報を模式的に示す。配信履歴DB191には画像クッキーに対応付けて配信された全天球画像6又は3DCG画像の画像IDと表示パターンが登録されている。画像配信装置10が広告データを送信する際に端末装置30に画像クッキーが登録されている場合、画像配信装置10はこの画像クッキーを端末装置30から取得できる。画像配信装置10は同一の閲覧者に同じ全天球画像6又は3DCG画像の配信を避けたり、同じ全天球画像6又は3DCG画像を同じ表示パターンで配信することを避けたりすることができる。逆に、リターゲッティング配信することもできる。 Table 7 schematically shows the information registered in the distribution history DB 191. The image ID and display pattern of the spherical image 6 or 3DCG image distributed in association with the image cookie are registered in the distribution history DB 191. If the image cookie is registered in the terminal device 30 when the image distribution device 10 transmits the advertisement data, the image distribution device 10 can acquire the image cookie from the terminal device 30. The image distribution device 10 can avoid distributing the same spherical image 6 or 3DCG image to the same viewer, or can avoid distributing the same spherical image 6 or 3DCG image in the same display pattern. Conversely, retargeting distribution can also be performed.

(画像配信装置の機能について)
画像情報応答部11はDSP20から取得したDSPクッキー、広告主ID、リクエスト内容(主に広告枠ID)に対し広告機会IDを付与し、アクセス情報2と共にDSP20に返送する。広告機会IDにより端末装置30の広告枠7ごとに広告の配信機会を特定できる。
(About the function of the image distribution device)
The image information response unit 11 assigns an advertising opportunity ID to the DSP cookie, the advertiser ID, and the request content (mainly the advertising space ID) acquired from the DSP 20, and returns the advertising opportunity ID together with the access information 2 to the DSP 20. The advertisement distribution opportunity can be specified for each advertisement space 7 of the terminal device 30 by the advertisement opportunity ID.

広告配信部12は、端末装置30から広告機会IDと共に広告データを要求されると配信する全天球画像6と表示パターンを決定する。まず、DSP20から取得した広告主IDに対応付けられた全天球画像6又は3DCG画像を広告画像DB194から決定する。好ましくは閲覧者の属性を考慮する。閲覧者の属性はDSP20から通知されてもよいし、画像配信装置10が画像クッキーに対応付けて蓄積したものでもよい。次に、広告配信部12はパターンDB195を参照して全天球画像6の表示パターンを決定する。例えば、最もクリック回数の多いパターンを決定する、又は、クリック回数が閾値以上のパターンから任意に決定する。パターン決定時も閲覧者の属性が考慮されることが好ましい。 The advertisement distribution unit 12 determines the spherical image 6 and the display pattern to be distributed when the terminal device 30 requests the advertisement data together with the advertisement opportunity ID. First, the spherical image 6 or the 3DCG image associated with the advertiser ID acquired from the DSP 20 is determined from the advertisement image DB 194. Preferably, the attributes of the viewer are considered. The attribute of the viewer may be notified from the DSP 20, or may be stored by the image distribution device 10 in association with the image cookie. Next, the advertisement distribution unit 12 determines the display pattern of the spherical image 6 with reference to the pattern DB 195. For example, the pattern with the largest number of clicks is determined, or the pattern with the number of clicks equal to or greater than the threshold value is arbitrarily determined. It is preferable that the attributes of the viewer are taken into consideration when determining the pattern.

操作履歴取得部14は、端末装置30から画像クッキー及び画像IDと共に操作履歴を取得し、操作履歴DB192に設定する。なお、注目点を決定するための操作履歴とクリック回数を更新するための操作履歴(クリックしたこと)の2種類の操作履歴がある。 The operation history acquisition unit 14 acquires the operation history together with the image cookie and the image ID from the terminal device 30 and sets it in the operation history DB 192. There are two types of operation history: an operation history for determining a point of interest and an operation history (clicked) for updating the number of clicks.

端末装置30の操作履歴記録部41を画像配信装置10が有していてもよい。操作履歴記録部41は時系列的な操作内容を必要とするので、通信帯域などによっては画像配信装置10が取得することが困難になるおそれがある。これに対し、端末装置30の操作履歴記録部41は最終的な操作履歴のみを画像配信装置10に送信すればよいので通信負荷を低減できる。 The image distribution device 10 may have an operation history recording unit 41 of the terminal device 30. Since the operation history recording unit 41 requires time-series operation contents, it may be difficult for the image distribution device 10 to acquire the operation history depending on the communication band or the like. On the other hand, the operation history recording unit 41 of the terminal device 30 only needs to transmit the final operation history to the image distribution device 10, so that the communication load can be reduced.

注目点決定部13は、全天球画像6の注目点Pを決定する。画像処理などで注目点を推定するなど各種の注目点Pの決定方法が考えられるが、詳細は後述する。注目点決定部13が決定した注目点Pは表示パターンに使用される。 The attention point determination unit 13 determines the attention point P of the spherical image 6. Various methods for determining the point of interest P, such as estimating the point of interest by image processing, can be considered, but the details will be described later. The attention point P determined by the attention point determination unit 13 is used for the display pattern.

コンテンツ受付部15は、画像配信装置10が配信するためのコンテンツを受け付ける(すなわち広告の入稿を受け付ける)。また、コンテンツ受付部15は担当者による遷移禁止領域81の設定を受け付ける。コンテンツ受付部15による画像の受け付け方法については図16を参照して説明する。 The content receiving unit 15 receives the content for distribution by the image distribution device 10 (that is, accepts the submission of advertisement). Further, the content reception unit 15 accepts the setting of the transition prohibition area 81 by the person in charge. The method of receiving the image by the content receiving unit 15 will be described with reference to FIG.

表示パターン生成部16は、この制約部17による制約の下、注目点決定部13が決定した注目点Pを通過する表示パターンを生成する。詳細は後述される。 The display pattern generation unit 16 generates a display pattern that passes through the attention point P determined by the attention point determination unit 13 under the constraint of the restriction unit 17. Details will be described later.

<コンテンツの受け付け>
図16は、コンテンツ受付部15と画像登録端末90の機能をブロック状に示す機能ブロック図の一例である。コンテンツ受付部15は通信部151、画面情報作成部152、及び、画像記憶部153を有している。
<Reception of content>
FIG. 16 is an example of a functional block diagram showing the functions of the content receiving unit 15 and the image registration terminal 90 in a block shape. The content reception unit 15 has a communication unit 151, a screen information creation unit 152, and an image storage unit 153.

通信部151は、画像登録端末90と例えばHTTP又はHTTPsの通信プロトコルを使って通信する。本実施例では、画像登録端末90からの要求に対しコンテンツを登録するためのコンテンツ登録画面の画面情報を画像登録端末90に送信する。また、画像登録端末90からコンテンツを受信する。 The communication unit 151 communicates with the image registration terminal 90 using, for example, the communication protocol of HTTP or HTTPs. In this embodiment, the screen information of the content registration screen for registering the content in response to the request from the image registration terminal 90 is transmitted to the image registration terminal 90. In addition, the content is received from the image registration terminal 90.

画面情報作成部152は、図16に示すコンテンツ登録画面の画面情報を作成する。画像記憶部153は通信部151が受信したコンテンツを広告画像DB194に記憶させる。 The screen information creation unit 152 creates screen information for the content registration screen shown in FIG. The image storage unit 153 stores the content received by the communication unit 151 in the advertisement image DB 194.

画像登録端末90は、例えば広告主や代理店の担当者(以下、単に担当者という)が操作する端末であり、図3に示した全天球画像6又は3DCG画像の少なくとも一方をコンテンツとして画像配信装置10に登録するために使用される。画像登録端末90は通信部91、表示制御部92、及び操作受付部93を有している。なお、画像登録端末90のハードウェア構成は図6と同様でよい。 The image registration terminal 90 is, for example, a terminal operated by a person in charge of an advertiser or an agency (hereinafter, simply referred to as a person in charge), and has at least one of the whole celestial sphere image 6 or the 3DCG image shown in FIG. 3 as content. It is used to register with the distribution device 10. The image registration terminal 90 has a communication unit 91, a display control unit 92, and an operation reception unit 93. The hardware configuration of the image registration terminal 90 may be the same as that shown in FIG.

通信部91は、コンテンツ登録画面の画面情報をコンテンツ受付部15から受信し、担当者が入力したコンテンツをコンテンツ受付部15に送信する。 The communication unit 91 receives the screen information of the content registration screen from the content reception unit 15, and transmits the content input by the person in charge to the content reception unit 15.

表示制御部92は、通信部91が受信したコンテンツ登録画面の画面情報を画像登録端末90のディスプレイに表示する。操作受付部93はコンテンツ登録画面に対する担当者の操作(全天球画像6、3DCG,遷移禁止領域81等)を受け付ける。 The display control unit 92 displays the screen information of the content registration screen received by the communication unit 91 on the display of the image registration terminal 90. The operation reception unit 93 accepts operations (omnidirectional images 6, 3DCG, transition prohibited area 81, etc.) of the person in charge on the content registration screen.

図17は、画像登録端末90のディスプレイに表示されたコンテンツ登録画面220の一例を示す。図17(a)に示すように、コンテンツ登録画面220は作業エリア221、ファイル選択欄222、数値で設定欄223、キャンセルボタン224、及び、新規作成ボタン225を有している。 FIG. 17 shows an example of the content registration screen 220 displayed on the display of the image registration terminal 90. As shown in FIG. 17A, the content registration screen 220 has a work area 221, a file selection field 222, a numerical setting field 223, a cancel button 224, and a new creation button 225.

ファイル選択欄222は、担当者が全天球画像6又は3DCG画像のファイルを選択して設定するための欄である。ファイル選択欄222で選択された全天球画像6又は3DCG画像は作業エリア221に表示される。 The file selection field 222 is a field for the person in charge to select and set a file of the spherical image 6 or the 3DCG image. The spherical image 6 or 3DCG image selected in the file selection field 222 is displayed in the work area 221.

作業エリア221に表示された全天球画像6は例えば正距円筒射影画像として表示される。担当者はマウスや指などのポインティングデバイスで遷移禁止領域81を設定できる。全天球画像6の遷移禁止領域81は視線方向の中心点CPが取らない又は取りにくい範囲が設定される。図17(a)では緯度の絶対値が所定値以上の領域が遷移禁止領域81として設定されている。担当者は任意の領域を遷移禁止領域81に設定できる。 The spherical image 6 displayed in the work area 221 is displayed as, for example, an equirectangular projection image. The person in charge can set the transition prohibition area 81 with a pointing device such as a mouse or a finger. The transition prohibited area 81 of the spherical image 6 is set to a range in which the center point CP in the line-of-sight direction is not or is difficult to be taken. In FIG. 17A, a region where the absolute value of latitude is equal to or higher than a predetermined value is set as a transition prohibition region 81. The person in charge can set any area as the transition prohibition area 81.

図17(b)は3DCG画像が作業エリア221に表示されたコンテンツ登録画面220の一例を示す。作業エリア221には3DCG画像が表示されている。担当者はマウスや指などのポインティングデバイスで遷移禁止領域81を設定する。3DCG画像の遷移禁止領域81は球体上において仮想的なカメラ330が取らない又は取りにくい位置の範囲が設定される。図17(b)では緯度の絶対値が所定値以上の領域が遷移禁止領域81として設定されている。担当者は任意の領域を遷移禁止領域81に設定できる。 FIG. 17B shows an example of the content registration screen 220 in which the 3DCG image is displayed in the work area 221. A 3DCG image is displayed in the work area 221. The person in charge sets the transition prohibition area 81 with a pointing device such as a mouse or a finger. The transition prohibited area 81 of the 3DCG image is set to a range of positions on the sphere that the virtual camera 330 cannot or cannot take. In FIG. 17B, a region where the absolute value of latitude is equal to or higher than a predetermined value is set as a transition prohibition region 81. The person in charge can set any area as the transition prohibition area 81.

なお、本実施形態では便宜上、仮想的なカメラ330の光軸は球の中心を向いているとしているが、光軸の方向は任意の方向を設定できる。 In the present embodiment, for convenience, the optical axis of the virtual camera 330 is oriented toward the center of the sphere, but the direction of the optical axis can be set to any direction.

また、数値で設定欄223には、視覚的に遷移禁止領域81を設定するのでなく、後述する数値で遷移禁止領域81を設定できる。担当者は、例えば、「|zt |<a」のように軸方向の範囲を数値で指定したり、後述する遷移軌道に関するパラメータ変化の速度、画角などの他のパラメータを設定したりする。数値の他、作業エリアにて、マウスやスタイラスペンなどにより、ユーザが遷移禁止領域を選択してもよい。 Further, instead of visually setting the transition prohibition area 81 in the setting field 223 numerically, the transition prohibition area 81 can be set numerically. The person in charge specifies the range in the axial direction numerically, for example, "| zt | <a", or sets other parameters such as the speed of parameter change and the angle of view regarding the transition trajectory described later. In addition to the numerical values, the user may select the transition prohibited area in the work area with a mouse, a stylus pen, or the like.

<注目点の決定>
続いて、いくつかの方法で注目点の決定方法を説明する。
<<特徴量から注目点を決定する方法>>
図18は、注目点決定部13が注目点を決定する手順を示すフローチャート図の一例である。ステップS11において、注目点決定部13は単位球と共通する中心を有する正多面体を定義した上で、各面の法線方向を視線方向として透視投影変換を行って部分画像を得る。図19(a)、全天球画像の投影面として正八面体を定義した例を示し、図19(b)は、全天球画像の投影面として正十二面体を定義した例を示す。
<Determination of points of interest>
Subsequently, a method of determining a point of interest will be described by several methods.
<< How to determine the point of interest from the features >>
FIG. 18 is an example of a flowchart showing a procedure in which the attention point determination unit 13 determines the attention point. In step S11, the point of interest determination unit 13 defines a regular polyhedron having a center common to the unit sphere, and then performs perspective projection conversion with the normal direction of each surface as the line-of-sight direction to obtain a partial image. FIG. 19 (a) shows an example in which a regular octahedron is defined as a projection plane of a spherical image, and FIG. 19 (b) shows an example in which a regular dodecahedron is defined as a projection plane of a spherical image.

ステップS12では、注目点決定部13がステップS11で得た各部分画像から所定の特徴量を抽出する。入力画像を上記の方法で分割し、歪みの少ない部分画像から特徴量を算出するので、180度を超える広角画像をロバストに処理することが可能になる。特徴量として、色、エッジ、顕著性、物体位置/ラベル、などを用いることができる。 In step S12, the point of interest determination unit 13 extracts a predetermined feature amount from each partial image obtained in step S11. Since the input image is divided by the above method and the feature amount is calculated from the partial image with less distortion, it is possible to robustly process a wide-angle image exceeding 180 degrees. As the feature amount, color, edge, prominence, object position / label, and the like can be used.

続くステップS13では、注目点決定部13が、所定の回帰モデルを用いて、各部分画像から抽出した特徴量から入力画像の位置ごと(画素ごと)に重要度を算出する。詳細は割愛するが、位置ごとの重要度と特徴量を回帰により関数で表す。なお、予め訓練データを用いて出力(教師データ)である重要度gを適切な方法で決定しておき、特徴量と重要度gの関係を求めておく。 In the following step S13, the point of interest determination unit 13 calculates the importance for each position (pixel by pixel) of the input image from the feature amount extracted from each partial image using a predetermined regression model. Details are omitted, but the importance and features of each position are expressed by regression as a function. It should be noted that the importance g, which is the output (teacher data), is determined in advance using the training data by an appropriate method, and the relationship between the feature amount and the importance g is obtained.

続くステップS14では、注目点決定部13が重要度の高い方向にユーザの注目点が存在するという設計思想の下、ステップS13で算出された重要度の分布に基づいて注目点の尤度分布を算出する。例えば、単位画像面上に視点を通過する領域Rを定義した上で、領域R内の各位置の重要度を加算した加算値を視点の注目領域尤度として算出することができる。 In the following step S14, the likelihood distribution of the attention points is calculated based on the importance distribution calculated in step S13 under the design concept that the attention point determination unit 13 has the user's attention points in the direction of high importance. calculate. For example, after defining a region R passing through the viewpoint on the unit image plane, an added value obtained by adding the importance of each position in the region R can be calculated as the likelihood of the region of interest of the viewpoint.

続くステップS15では、注目点決定部13が、注目領域尤度分布に基づいて注目点を算出する。本実施形態では、例えば、注目領域尤度の最尤値に対応する撮像方向に対応する位置を注目点として算出する。 In the following step S15, the attention point determination unit 13 calculates the attention point based on the likelihood region likelihood distribution. In the present embodiment, for example, the position corresponding to the imaging direction corresponding to the maximum likelihood value of the likelihood region of interest is calculated as the point of interest.

このようにして、いくつかの注目点が算出できる。注目点決定部13は上位のN個の注目点のうち、予め決められた数の注目点、又は、閾値以上の注目点を特定する。そして、表示パターン生成部16に注目点を送出する。 In this way, some points of interest can be calculated. The attention point determination unit 13 identifies a predetermined number of attention points or attention points equal to or larger than the threshold value among the top N attention points. Then, a point of interest is sent to the display pattern generation unit 16.

<<人物を注目点に決定する>>
閲覧者の嗜好を考慮して注目点を決定することもできる。人が注目する被写体としては人物が考えられる。人物の検出方法としては、顔認識が知られている。顔認識にはディープラーニングを初めとする各種の機械学習を採用してもよいしパターンマッチングしてもよい。注目点決定部13は顔の中心を注目点として検出する。顔の数が多い場合は、距離が近い顔を1つと見なして顔の数を決まった数に低減してもよい。
<< Determine the person as the point of interest >>
It is also possible to determine the point of interest in consideration of the taste of the viewer. A person can be considered as a subject that a person pays attention to. Face recognition is known as a method for detecting a person. Various machine learning such as deep learning may be adopted for face recognition, or pattern matching may be adopted. The attention point determination unit 13 detects the center of the face as the attention point. When the number of faces is large, the number of faces may be reduced to a fixed number by regarding the faces that are close to each other as one.

<<笑顔を注目点に決定する>>
人が注目する被写体としては人の笑顔が考えられる。笑顔の検出方法としては、上記の顔認識に加え、予め保持されている笑顔のパターンを用いてパターンマッチングする公知の方法を利用できる。顔の数が多い場合は、笑顔のみを注目点としてもよい。また、顔の他、悲しみ、怒り、困惑などの顔を注目点に決定してもよい。
<< Determine a smile as a point of interest >>
A person's smile can be considered as a subject that people pay attention to. As a smile detection method, in addition to the above-mentioned face recognition, a known method of pattern matching using a smile pattern held in advance can be used. If you have a large number of faces, you may want to focus only on your smile. In addition to the face, faces such as sadness, anger, and confusion may be determined as points of interest.

<<子供を注目点に決定する>>
大人の中に子供が存在する場合、人が子供に注目する場合がある。あるいは、この逆に大勢の子供の中に大人が存在する場合、人が大人に注目する場合がある。子供又は大人の検出方法としては、顔の位置を利用できる。上記の顔認識で特定される顔の位置が他の顔の位置より低い場合は子供であると推定され、顔認識で特定される顔の位置が他の顔の位置より高い場合は大人であると推定される。
<< Determine children as points of interest >>
When a child is present in an adult, one may pay attention to the child. Or, conversely, when an adult is present in a large number of children, a person may pay attention to the adult. The position of the face can be used as a method for detecting a child or an adult. If the position of the face specified by the above face recognition is lower than the position of other faces, it is presumed to be a child, and if the position of the face specified by face recognition is higher than the position of other faces, it is an adult. It is estimated to be.

<<任意の被写体を注目点に決定する>>
広告主が閲覧者に閲覧させたい注目点は広告主が把握していると考えられる。したがって、広告主が指定した被写体を注目点決定部13が検出して注目点とすることができる。例えば、自動車、家具、食品等、広告主の製品やサービスをパターン認識により検出して注目点とする。
<< Determine any subject as the point of interest >>
It is considered that the advertiser knows the points of interest that the advertiser wants the viewer to view. Therefore, the attention point determination unit 13 can detect the subject designated by the advertiser and set it as the attention point. For example, advertiser's products and services such as automobiles, furniture, and foods are detected by pattern recognition and set as points of interest.

<<操作履歴を利用する>>
全天球画像又は3DCG画像がクリックされた場合は、このクリックされた全天球画像の視線方向(座標)又は仮想的なカメラ330の位置を注目点としてもよい。
<< Use operation history >>
When the spherical image or the 3DCG image is clicked, the line-of-sight direction (coordinates) of the clicked spherical image or the position of the virtual camera 330 may be the point of interest.

<表示パターンの生成>
以下では、図20〜図28を用いて遷移禁止領域81が考慮された表示パターンの生成方法を説明する。
<Generation of display pattern>
Hereinafter, a method of generating a display pattern in which the transition prohibited area 81 is taken into consideration will be described with reference to FIGS. 20 to 28.

図20は、表示パターン生成部16が表示パターンを生成する全体的な流れの一例を示すフローチャート図である。 FIG. 20 is a flowchart showing an example of an overall flow in which the display pattern generation unit 16 generates a display pattern.

ステップS101において、表示パターン生成部16が広告画像DB194から全天球画像又は3DCG画像を取得する。 In step S101, the display pattern generation unit 16 acquires a spherical image or a 3DCG image from the advertisement image DB 194.

ステップS102で、図18,図19にて説明したように、注目点決定部13が注目点(注目点を含んで広告枠に表示される領域を注目領域という)を決定する。なお、注目点の決定方法には非特許文献1などの手法を使ってもよい。これにより、全天球画像又は3DCG画像の各領域(最小単位は各画素)に対する注目度が求まる。 In step S102, as described with reference to FIGS. 18 and 19, the attention point determination unit 13 determines the attention point (the area including the attention point and displayed in the advertising space is referred to as the attention area). A method such as Non-Patent Document 1 may be used as a method for determining the point of interest. As a result, the degree of attention for each region (minimum unit is each pixel) of the spherical image or the 3DCG image can be obtained.

ステップS103では、制約部17が全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置のパラメータに制約をかけた上で表示パターン生成部16が表示パターンを生成する。 In step S103, the constraint unit 17 constrains the parameters of the line-of-sight direction of the spherical image or the position of the virtual camera 330 in the 3DCG image, and then the display pattern generation unit 16 generates the display pattern.

図21は全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置のパラメータを説明する図の一例である。全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置のパラメータとは、カメラパラメータを時系列に並べたものであり、カメラパラメータとは、全天球画像6及び3DCG画像を仮想的に三次元空間に配置した時に撮像するカメラのパラメータ(位置・姿勢、光軸方向、焦点距離(画角)など)をいう。 FIG. 21 is an example of a diagram for explaining the parameters of the line-of-sight direction of the spherical image or the position of the virtual camera 330 in the 3DCG image. The parameters of the line-of-sight direction of the all-sky image or the position of the virtual camera 330 in the 3DCG image are the camera parameters arranged in chronological order, and the camera parameters are the virtual all-sky images 6 and 3DCG images. It refers to the parameters (position / orientation, optical axis direction, focal length (angle of view), etc.) of the camera that images when placed in a three-dimensional space.

図21(a)は、時刻t=1からt=Tまでの間、球340上を仮想的なカメラ330が移動する状況を示している。なお、球340の鉛直方向をZ方向とする。図21(a)では球340が全天球画像であることが想定されており、中心には3Dモデル95が配置されている。この場合、端末装置30は3Dモデル95の背景として全天球画像6を表示することができる。 FIG. 21A shows a situation in which the virtual camera 330 moves on the sphere 340 from the time t = 1 to t = T. The vertical direction of the sphere 340 is the Z direction. In FIG. 21A, it is assumed that the sphere 340 is a spherical image, and the 3D model 95 is arranged at the center. In this case, the terminal device 30 can display the spherical image 6 as the background of the 3D model 95.

図21(b)は図21(a)に示す状況におけるカメラパラメータを示す。カメラパラメータは、
カメラ投影中心(x,y,z)
光軸方向(u,v,w
光軸回転θ
水平画角φ
である。
21 (b) shows the camera parameters in the situation shown in FIG. 21 (a). Camera parameters are
Camera projection center (x t , y t , z t )
The optical axis direction (u t, v t, w t)
Optical axis rotation θ t
Horizontal angle of view φ t
Is.

tはt=1からt=Tまで取るので、全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置のパラメータは図21(c)に示すように、カメラパラメータが時系列に並んだものとなる。図21(c)の1行(カメラパラメータ)が表6のパターンDB195における1パラメータである。 Since t is taken from t = 1 to t = T, the parameters of the line-of-sight direction of the spherical image or the position of the virtual camera 330 in the 3DCG image are in chronological order as shown in FIG. 21 (c). It will be lined up. One line (camera parameter) in FIG. 21 (c) is one parameter in the pattern DB 195 in Table 6.

また、図22に示すように、全天球画像6を配置する球340の中心を仮想的なカメラ330の光軸が通るように設定することでパラメータ数を減らしてもよい。図22(a)、図22(b)のカメラパラメータは、
撮像方向(x,y,z)
カメラ中心変位d
光軸回転θ
水平画角φt
である。
Further, as shown in FIG. 22, the number of parameters may be reduced by setting the center of the sphere 340 on which the spherical image 6 is arranged so that the optical axis of the virtual camera 330 passes through. The camera parameters shown in FIGS. 22 (a) and 22 (b) are
Imaging direction (x t , y t , z t )
Camera center displacement dt
Optical axis rotation θ t
Horizontal angle of view φt
Is.

球340の中心を仮想的なカメラ330の光軸が通るので、仮想的なカメラ330の位置は撮像方向とカメラ中心変位dtから求められる。したがって、光軸が不要な分、パラメータを減らすことができる。 Since the optical axis of the virtual camera 330 passes through the center of the sphere 340, the position of the virtual camera 330 can be obtained from the imaging direction and the displacement dt of the camera center. Therefore, the parameters can be reduced because the optical axis is unnecessary.

制約部17はこのように定義されるカメラパラメータに対して制約をかける。例えば、図17(a)、図17(b)の遷移禁止領域81であれば、適当な閾値a∈[0 1]に対して
|zt | < a (t=1,2, …,T)
のように制約を表現することができる。すなわち、所定の軸に対して取り得る値を制約する。この制約は全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置のzの絶対値がa未満となることを意味するので、図17(a)、図17(b)の遷移禁止領域81と合致する。仮想的なカメラ330の位置のパラメータは、制約部が制約した座標の範囲内に限定して、注目点が時系列に設定されたものである。
The constraint unit 17 constrains the camera parameters defined in this way. For example, in the transition prohibited region 81 of FIGS. 17 (a) and 17 (b), for an appropriate threshold value a ∈ [0 1].
| z t | <a (t = 1,2,…, T)
The constraint can be expressed as follows. That is, the values that can be taken for a predetermined axis are restricted. Since this constraint means that the absolute value of z of the position of the virtual camera 330 in the line-of-sight direction of the spherical image or the 3DCG image is less than a, the transition of FIGS. 17 (a) and 17 (b). It matches the prohibited area 81. The parameter of the position of the virtual camera 330 is limited to the range of the coordinates constrained by the constraint unit, and the points of interest are set in chronological order.

表示パターン生成部16はこのような制約の下、表示パターンを生成する。生成方法としては例えば、(1)制約付き生成、(2)制約緩和、(3)再パラメタライズ、の3つが考えられる。(1)の方法は、上記の注目点の探索時に探索範囲を制約条件内に限定することをいう。(2)の方法は、たとえば|zt |<a (t=1,2, …,T)の制約に対し、その制約から外れる領域の注目度を落とした上で(極端な例では0とする)、制約がないものとして表示パターンを生成する。上記の注目点の探索時に探索範囲の注目度に1より小さい値(例えば0)を乗じればよい。以上のようにして制約された注目点を所定の数だけ抽出してランダムに順番を設定すれば表示パターンが得られる。すなわち、仮想的なカメラ330の位置のパラメータは、座標の範囲の注目度を小さくした上で、注目度が大きい注目点が優先して時系列に設定されたものである。 The display pattern generation unit 16 generates a display pattern under such restrictions. For example, there are three possible generation methods: (1) constrained generation, (2) constraint relaxation, and (3) reparameterization. The method (1) means limiting the search range within the constraint condition when searching for the above-mentioned point of interest. In method (2), for example, for the constraint of | z t | <a (t = 1,2,…, T), the attention of the area outside the constraint is reduced (0 in an extreme example). ), Generate the display pattern as if there were no restrictions. When searching for the above points of interest, the degree of attention of the search range may be multiplied by a value smaller than 1 (for example, 0). A display pattern can be obtained by extracting a predetermined number of points of interest restricted as described above and randomly setting the order. That is, the parameter of the position of the virtual camera 330 is set in chronological order with priority given to the points of interest having a high degree of attention after reducing the degree of attention in the range of coordinates.

(3)の方法は要素軌道を使ってパラメータを再パラメタライズする方法であり、詳細は図23〜図28で説明される。 The method (3) is a method of re-parameterizing the parameters using the element trajectories, and the details will be described with reference to FIGS. 23 to 28.

図20に戻り、ステップS104では、表示パターン生成部16が以上で生成した表示パラメータをパターンDB195に記憶させる。なお、本実施形態では表示パターンとコンテンツが端末装置30に配信されるものとして説明するが、表示パターンとコンテンツから複数の表示画像を生成して端末装置30に配信してもよい。通信コストや通信帯域に支障がなければ、端末装置30の処理負荷を低減できる。なお、複数の表示画像は動画のように再生されるので、複数の表示画像を動画又はアニメーションと称することができる。なお、この場合、画像配信装置10が表示画像生成部44を有している。 Returning to FIG. 20, in step S104, the display parameters generated by the display pattern generation unit 16 are stored in the pattern DB 195. In this embodiment, the display pattern and the content will be delivered to the terminal device 30, but a plurality of display images may be generated from the display pattern and the content and delivered to the terminal device 30. If there is no problem in communication cost and communication band, the processing load of the terminal device 30 can be reduced. Since the plurality of display images are reproduced like a moving image, the plurality of displayed images can be referred to as a moving image or an animation. In this case, the image distribution device 10 has a display image generation unit 44.

<要素軌道を用いた制約方法>>
続いて、(3)再パラメタライズによる制約について説明する。図20〜図22では、制約部17が全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置のパラメータに制約をかけた上で表示パターンを生成した。これに対し、要素軌道を用いて表示パターンを生成する方法がある。
<Restriction method using element trajectories >>
Next, (3) restrictions due to reparameterization will be described. In FIGS. 20 to 22, the constraint unit 17 constrains the parameters of the line-of-sight direction of the spherical image or the position of the virtual camera 330 in the 3DCG image, and then generates the display pattern. On the other hand, there is a method of generating a display pattern using the element trajectory.

例えば、説明の便宜上、全天球画像の視線方向又は3DCG画像における仮想的なカメラ330の位置を大円軌道(円軌道の中心が球の中心と一致)に限定するのであれば、適当な変数w1,w2,w3∈Rに対して、
w1・xt + w2・yt + w3・zt=0 かつ xt 2 + yt 2 + zt 2 − 1 = 0 (t=1,2,…,T) …(1)
という制約が設定される。
For example, for convenience of explanation, if the line-of-sight direction of the spherical image or the position of the virtual camera 330 in the 3DCG image is limited to a large circular orbit (the center of the circular orbit coincides with the center of the sphere), an appropriate variable. For w 1 , w 2 , w 3 ∈ R,
w 1・ x t + w 2・ y t + w 3・ z t = 0 and x t 2 + y t 2 + z t 2 − 1 = 0 (t = 1,2,…, T)… (1)
The constraint is set.

左辺は(w1,w2,w3)と(xt,yt, zt)の内積を意味しており、内積がゼロになることは直交を意味するため、球上の点(xt,yt, zt)が大円上にあることを表している。変数w1,w2,w3の設定により様々な大円を表現できる。右辺は直径1の球を表す。 The left side means the inner product of (w 1 , w 2 , w 3 ) and (x t , y t , z t ), and zero inner product means orthogonality, so the point on the sphere (x) t , y t , z t ) indicates that they are on the great circle. Various great circles can be expressed by setting the variables w 1 , w 2 , and w 3 . The right side represents a sphere with a diameter of 1.

一般的にはパラメータΘに対して、N個の関数gn:(n=1,2,…,N)とM個の関数hm:(m=1,2,…,M)を用いて、
g1(Θ) < 0 ∧…∧ gN(Θ) < 0 ∧ h1(Θ)= 0 ∧…∧ hM(Θ)=0 …(2)
という形式で制約を表現できる。なお、パラメータ空間は実数Rとする。
In general, for the parameter Θ, use N functions g n : (n = 1,2, ..., N) and M functions h m : (m = 1,2, ..., M). ,
g 1 (Θ) <0 ∧… ∧ g N (Θ) <0 ∧ h 1 (Θ) = 0 ∧… ∧ h M (Θ) = 0… (2)
The constraint can be expressed in the form. The parameter space is a real number R.

<<軌道要素の例>>
図23、図24は要素軌道の一例を示す。図23(a)は仮想的なカメラ330の位置の水平軌道を示し、図23(b)は全天球画像6の視線方向の水平軌道を示す。水平軌道は式(3)のように表すことができる。
w1・xt + w2・yt + w3・zt − u = 0 かつ xt 2 + yt 2 + zt 2 − 1 = 0 (t=1,2, …,T) …(3)
式(3)において、z軸が鉛直方向の場合、w1=w2=0と置くと、zt = u/w3の関係から図23(a)、図23(b)に示す水平軌道になる。
<< Examples of orbital elements >>
23 and 24 show an example of element trajectories. FIG. 23 (a) shows the horizontal trajectory of the position of the virtual camera 330, and FIG. 23 (b) shows the horizontal trajectory of the spherical image 6 in the line-of-sight direction. The horizontal orbit can be expressed as Eq. (3).
w 1・ x t + w 2・ y t + w 3・ z t − u = 0 and x t 2 + y t 2 + z t 2 − 1 = 0 (t = 1,2,…, T)… ( 3)
In equation (3), when the z-axis is in the vertical direction, if w 1 = w 2 = 0 is set, the horizontal orbits shown in FIGS. 23 (a) and 23 (b) due to the relationship of z t = u / w 3 . become.

また、図24に示すように、任意の軸周りの軌道を設定することができる。図24(a)は仮想的なカメラ330の大円軌道97を示し、図24(b)は全天球画像6の視線方向の大円軌道98を示す。式(3)においてu=0と置けば、図24に示す大円軌道になる。したがって、式(3)は水平軌道、及び大円軌道の一般化式である。 Further, as shown in FIG. 24, an orbit around an arbitrary axis can be set. FIG. 24A shows the large circular orbit 97 of the virtual camera 330, and FIG. 24B shows the large circular orbit 98 in the line-of-sight direction of the spherical image 6. If u = 0 is set in the equation (3), the large circular orbit shown in FIG. 24 is obtained. Therefore, equation (3) is a generalized equation for horizontal orbits and large circular orbits.

また、図25(a)に示すように、水平回転軌道は任意の軸99に対して設定可能である。また、図25(b)に示すように、螺旋軌道を要素軌道としてもよい。図25(b)では、仮想的なカメラ330位置又は全天球画像6の視線方向が球340上を螺旋状に移動している。このような螺旋軌道は式(4)で表すことができる。
w1・xt + w2・yt + w3・zt −(u+vt)= 0 かつ xt 2 + yt 2 + zt 2 − 1 = 0 (t=1,2,…,T) …(4)
式(4)に示すように、制約に時間成分vtを組み込む。v=0と置けば式(3)と同じになる。vは軸方向への移動の速さのパラメータである。
Further, as shown in FIG. 25A, the horizontal rotation trajectory can be set for any axis 99. Further, as shown in FIG. 25B, the spiral orbit may be an element orbit. In FIG. 25B, the position of the virtual camera 330 or the line-of-sight direction of the spherical image 6 is spirally moving on the sphere 340. Such a spiral orbit can be expressed by the equation (4).
w 1・ x t + w 2・ y t + w 3・ z t − (u + vt) = 0 and x t 2 + y t 2 + z t 2 − 1 = 0 (t = 1,2,…, T)… (4)
As shown in equation (4), the time component vt is incorporated into the constraint. If v = 0 is set, it becomes the same as equation (3). v is a parameter of the speed of movement in the axial direction.

<<要素軌道を用いた表示パターンの生成手順>>
以上のような要素軌道であれば、異なる視点を複雑な軌道で遷移することでスムーズさが失われるような不都合を抑制できる。
<< Procedure for generating display patterns using element trajectories >>
With the element trajectory as described above, it is possible to suppress the inconvenience of losing smoothness by transitioning different viewpoints in a complicated trajectory.

要素軌道に制約を反映させて表示パターンを生成する場合、図20のステップS103の処理内容が変わる。図26は、要素軌道を用いた表示パターンの生成時に、図20のステップS103で実行される手順を示すフローチャート図である。 When the display pattern is generated by reflecting the constraint on the element trajectory, the processing content of step S103 in FIG. 20 changes. FIG. 26 is a flowchart showing a procedure executed in step S103 of FIG. 20 when generating a display pattern using element trajectories.

ステップS201では、表示パターン生成部16が、要素軌道のパラメータ(w1,w2,w3,u,v)の具体値を生成する。例えば、要素軌道のパラメータの特定領域(ある範囲に限定する意図であり、コンピュータの処理能力などから決定してよい)における一様分布に基づきランダムに生成する。 In step S201, the display pattern generation unit 16 generates specific values of the element trajectory parameters (w 1 , w 2 , w 3 , u, v). For example, it is randomly generated based on a uniform distribution in a specific region of the parameter of the element trajectory (which is intended to be limited to a certain range and may be determined from the processing power of a computer or the like).

ステップS202では、表示パターン生成部16がランダムに生成したパラメータで生成される要素軌道上の注目度の累積値を算出する。 In step S202, the display pattern generation unit 16 calculates the cumulative value of the degree of attention on the element trajectory generated by the parameters randomly generated.

図27は要素軌道上の注目度の累積値を説明する図である。要素軌道の選択法としては要素軌道上の注目度の累積値が極値を取るものを選択することができる。水平回転軌道であれば仰角をパラメータとして要素軌道を表現することができる。図は各仰角に対応する要素軌道上の累積注目度を算出した例である。この例では2つの極値が存在し、その極値を取る仰角の要素軌道が選択される。 FIG. 27 is a diagram illustrating a cumulative value of attention on the element trajectory. As a method for selecting the element trajectory, a method in which the cumulative value of the degree of attention on the element trajectory takes an extreme value can be selected. If it is a horizontal rotation trajectory, the element trajectory can be expressed with the elevation angle as a parameter. The figure is an example of calculating the cumulative attention level on the element trajectory corresponding to each elevation angle. In this example, there are two extrema, and the element trajectory of the elevation angle that takes the extremum is selected.

また極値を使った選択法とは別の方法として、累積注目度を頻度と見なして仰角をクラスタリングしても良い。大円軌道の場合も回転軸の方向ベクトルをパラメータとして、上記と同様の議論を行うことができる。 Further, as an alternative to the selection method using extrema, the elevation angle may be clustered by regarding the cumulative attention level as the frequency. In the case of a large circular orbit, the same discussion as above can be made with the direction vector of the rotation axis as a parameter.

図26に戻り、ステップS203では、表示パターン生成部16は、該累積注目度の値から、パラメータの採択を判断する。もし、これまでに探索して得た累積注目度よりも大きければ該パラメータを採択し、その累積注目度を記録する。 Returning to FIG. 26, in step S203, the display pattern generation unit 16 determines the adoption of the parameter from the value of the cumulative attention level. If it is larger than the cumulative attention level obtained by searching so far, the parameter is adopted and the cumulative attention level is recorded.

ステップS204では、終了条件(たとえば特定回数繰り返す等)を満たした場合は終了、そうでなければステップS201に戻る。以上で1つの要素軌道が求まる。表示パターン生成部16は要素軌道上の連続的な視点を有する前記表示パターンを生成する。 In step S204, if the end condition (for example, repeating a specific number of times) is satisfied, the process ends, otherwise the process returns to step S201. With the above, one element trajectory can be obtained. The display pattern generation unit 16 generates the display pattern having a continuous viewpoint on the element trajectory.

図26は、ランダム探索により要素軌道のパラメータを見つける方法であるが、これ以外の方法として、要素軌道のパラメータ空間をグリッド上に分割し、グリッド点に対して全探索する方法がある。その場合は、ステップS201で順次グリッド点を選択する。ステップS204で全グリッド点が選択済みであること、が終了条件になる。 FIG. 26 shows a method of finding the parameters of the element trajectory by a random search, but as another method, there is a method of dividing the parameter space of the element trajectory on the grid and performing a full search for the grid points. In that case, the grid points are sequentially selected in step S201. The end condition is that all grid points have been selected in step S204.

また、他には焼きなまし法、遺伝的アルゴリズム、タブーサーチといったメタヒューリスティクスを用いた探索法を使ってもよい。この場合はステップS201で各メタヒューリスティクスのアルゴリズムにしたがってパラメータを生成し、ステップS203では各メタヒューリスティクスのアルゴリズムの基準にしたがってパラメータを採択する。焼きなまし法を使う場合は、ステップS201で前回繰り返しのパラメータの近くにランダムにパラメータを生成し、ステップS203では新しいパラメータが前回繰り返しのパラメータよりも累積注目度が高い場合に採択し、低い場合でも一定の確率で採択する。 In addition, search methods using metaheuristics such as simulated annealing, genetic algorithms, and tabu search may be used. In this case, in step S201, parameters are generated according to the algorithm of each metaheuristic, and in step S203, the parameters are adopted according to the criteria of each metaheuristic algorithm. When Simulated Annealing is used, parameters are randomly generated near the parameters of the previous iteration in step S201, and adopted in step S203 when the cumulative attention is higher than the parameters of the previous iteration, and is constant even if it is low. Adopted with the probability of.

なお、式(2)〜(4)の要素軌道で図26を実行した場合、要素軌道上でのパラメータ変化の速度について自由度が残されている。これは担当者が人手で設定する。また、式(2)〜(4)の要素軌道はいずれも仮想的なカメラ330の位置又は全天球画像6の視線方向を定めるだけで、画角などの他のパラメータにも自由度が残っている。これは担当者が人手で設定する、又は、注目点の決定方法と同様の方法により生成する。 When FIG. 26 is executed on the element trajectories of the equations (2) to (4), there is a degree of freedom regarding the speed of parameter change on the element trajectories. This is set manually by the person in charge. In addition, the element trajectories of equations (2) to (4) only determine the position of the virtual camera 330 or the line-of-sight direction of the spherical image 6, and other parameters such as the angle of view remain flexible. ing. This is manually set by the person in charge, or generated by the same method as the method of determining the point of interest.

<<複数の要素軌道を求める方法>>
図26は1つの要素軌道のパラメータを選択する例なので、2つ以上求める場合は、上記手法を乱数の種を変えて複数回実行し、複数の準最適解を得る方法を使用する。
<< How to find multiple element trajectories >>
Since FIG. 26 is an example of selecting the parameter of one element trajectory, when obtaining two or more, the method of executing the above method a plurality of times by changing the seed of the random number and obtaining a plurality of semi-optimal solutions is used.

また、別のアプローチとして、クラスタリング手法を用いる方法がある。クラスタリングを用いたアプローチの処理フローを図28に示し、以下、各ステップの内容を説明する。図28は、2つ以上の要素軌道を求める手順を示すフローチャート図である。 Another approach is to use a clustering method. The processing flow of the approach using clustering is shown in FIG. 28, and the contents of each step will be described below. FIG. 28 is a flowchart showing a procedure for obtaining two or more element trajectories.

ステップS301では、制約部17が要素軌道のパラメータ空間を適当に離散化(各パラメータが取る値を1、2…など決まった値に制限する)して、各パラメータに対する注目度の累積値を求める。 In step S301, the constraint unit 17 appropriately discretizes the parameter space of the element trajectory (limits the value taken by each parameter to a fixed value such as 1, 2, ...), And obtains the cumulative value of the degree of attention for each parameter. ..

ステップS302では、表示パターン生成部16が算出した累積注目度を要素軌道のパラメータに対する確率とみなして、要素軌道のパラメータを特定個数のクラスタに分割する。クラスタリングにはk−meansや、混合分布に対するEMアルゴリズム/変分ベイズ法など、一般的なクラスタリング手法を用いることができる。なお、上記の注目点の決定方法では「注目度」を確率とみなして「カメラパラメータ」をクラスタリングしたが、図28では「累積注目度」を確率とみなして「要素軌道のパラメータ」をクラスタリングする、という差異がある。 In step S302, the cumulative attention level calculated by the display pattern generation unit 16 is regarded as a probability with respect to the parameter of the element trajectory, and the parameter of the element trajectory is divided into a specific number of clusters. For clustering, general clustering methods such as k-means and EM algorithm / variational Bayesian method for mixture distribution can be used. In the above method of determining the attention point, the "attention degree" is regarded as a probability and the "camera parameters" are clustered, but in FIG. 28, the "cumulative attention degree" is regarded as a probability and the "element orbit parameters" are clustered. There is a difference.

ステップS303では、表示パターン生成部16が、各クラスタの代表値(平均値、中央値、モードなど)を選択する。これによってクラスタの数だけ、要素軌道のパラメータを得ることができる。 In step S303, the display pattern generation unit 16 selects a representative value (average value, median value, mode, etc.) of each cluster. This makes it possible to obtain as many element trajectory parameters as there are clusters.

ステップS304では、表示パターン生成部16が、得られた複数の要素軌道の遷移順序を決める。ひとつの方法としては、要素軌道のパラメータ空間に適当な順序関係(たとえば原点とのユークリッド距離の大小)を入れてソートすることで遷移順序を決める方法がある。また、別の方法としては、まずランダムに1つの要素軌道を選択し、次にそのパラメータにもっとも近い要素軌道を選択することを再帰的に行うことで順序を決める方法がある。 In step S304, the display pattern generation unit 16 determines the transition order of the obtained plurality of element trajectories. One method is to determine the transition order by putting an appropriate order relationship (for example, the magnitude of the Euclidean distance from the origin) in the parameter space of the element trajectory and sorting. Another method is to recursively select one element trajectory at random and then select the element trajectory closest to the parameter to determine the order.

ステップS305では、表示パターン生成部16が、順序の決まった要素軌道間の遷移軌道を生成する。単純に要素軌道を接合すると接合点において一般には不連続となるので、要素軌道間を補間する。これは線形補間でもよいし、スプライン補間でもよい。線形補間の場合を具体的に示すと、i番目の要素軌道に対応する時刻tのアニメーションパラメータをΘi (t)と書けば、i番目とi+1番目の要素軌道を補間したアニメーションパラメータΘ´i (t)は次式で生成できる。なお、Tは全フレーム数である。 In step S305, the display pattern generation unit 16 generates a transition orbit between the element orbits having a fixed order. If the element trajectories are simply joined, they are generally discontinuous at the joining point, so the element trajectories are interpolated. This may be linear interpolation or spline interpolation. To show the case of linear interpolation concretely, if the animation parameter at time t corresponding to the i-th element trajectory is written as Θi (t), the animation parameter Θ'that interpolates the i-th and i + 1th element trajectories. i (t) can be generated by the following equation. Note that T is the total number of frames.

Θi,Θi+1の時間長が異なる場合は、要素をコピーするかリサイズして時間長が同じになるように揃える。例えばΘi(1)…Θi(10)とすると時間長は10、Θi+1(1)…Θi+1(20)とすると時間長は20なので、両者の時間長は異なっている。この場合、前者のアニメーションパラメータの各要素をコピーして合計で20の時間長とするか、又は、後者のアニメーションの要素を1つ置きに削除してリサイズする。 If the time lengths of Θi and Θi + 1 are different, copy or resize the elements so that they have the same time length. For example, if Θi (1) ... Θi (10), the time length is 10, and if Θi + 1 (1) ... Θi + 1 (20), the time length is 20, so the time lengths of the two are different. In this case, each element of the former animation parameter is copied to a total length of 20 hours, or every other element of the latter animation is deleted and resized.

このようにして補間した表示パラメータを用いて、補間前の表示パラメータと合わせて(Θ1,Θ´1,Θ2,Θ´2,Θ3,…)のように並べることで連続的に変化するアニメーションを得ることができます。 Using the display parameters interpolated in this way, an animation that changes continuously by arranging them together with the display parameters before interpolation as (Θ1, Θ'1, Θ2, Θ'2, Θ3, ...) You can get it.

以上によって、複数の要素軌道をベースとした表示パターンを生成できる。なお、図26の探索方法で複数の要素軌道を求めてから、ステップS304以降のステップを実行して表示パターンを生成してもよい。 From the above, a display pattern based on a plurality of element trajectories can be generated. It should be noted that the display pattern may be generated by executing the steps after step S304 after obtaining the plurality of element trajectories by the search method of FIG.

<動作手順>
図29は、画像表示システム100が広告として表示される全天球画像6又は3DCG画像を配信する手順を説明するシーケンス図の一例である。
<Operation procedure>
FIG. 29 is an example of a sequence diagram illustrating a procedure in which the image display system 100 delivers a spherical image 6 or a 3DCG image displayed as an advertisement.

S1:まず、閲覧者はパートナーサイトWebサーバ60と接続するように端末装置30を操作する。端末装置30の操作受付部34は操作を受け付け、Webページ取得部31がWebページを取得する。 S1: First, the viewer operates the terminal device 30 so as to connect to the partner site Web server 60. The operation reception unit 34 of the terminal device 30 accepts the operation, and the Web page acquisition unit 31 acquires the Web page.

S2:端末装置30のWebページ解析部32はWebページを解析しHTML、CSS,スクリプトを抽出し、Webページ表示部33がHTMLとCSSに基づいてWebページを表示する。 S2: The Web page analysis unit 32 of the terminal device 30 analyzes the Web page, extracts HTML, CSS, and a script, and the Web page display unit 33 displays the Web page based on the HTML and CSS.

S3:端末装置30の広告枠検出部36は広告枠7に対応付けられた広告タグ(スクリプト)を実行することで広告リクエストをSSP50に送信する。広告リクエストには、例えばSSPクッキー、パートナーサイトWebサーバ60のドメイン、広告枠ID、広告枠7サイズ、広告フォーマット、ブラウザ種類、OS種類等が含まれる。 S3: The advertisement space detection unit 36 of the terminal device 30 transmits an advertisement request to the SSP 50 by executing an advertisement tag (script) associated with the advertisement space 7. The advertisement request includes, for example, an SSP cookie, a domain of the partner site Web server 60, an advertisement space ID, an advertisement space 7 size, an advertisement format, a browser type, an OS type, and the like.

S4:SSP50の広告要求取得部52は広告リクエストを取得し、広告リクエスト部51が広告リクエストを受け付ける。広告リクエスト部51はSSPクッキーを検出してDSP20に対し広告リクエストを通知して広告枠7を販売する。 S4: The advertisement request acquisition unit 52 of the SSP 50 acquires the advertisement request, and the advertisement request unit 51 accepts the advertisement request. The advertisement request unit 51 detects the SSP cookie, notifies the DSP 20 of the advertisement request, and sells the advertisement space 7.

S5:DSP20のリクエスト受付部21は広告リクエストを入札判断部22に送出する。DSP20の入札判断部22はクッキー情報DB291を参照してSSPクッキーからDSPクッキーを特定する。 S5: The request reception unit 21 of the DSP 20 sends an advertisement request to the bid determination unit 22. The bid determination unit 22 of the DSP 20 refers to the cookie information DB 291 and identifies the DSP cookie from the SSP cookie.

S6:入札判断部22はDSPクッキーから属性を判断する。クッキー情報DB291の訪問ドメインを参照してもよいし、適宜、DSPクッキーで特定される閲覧者の属性情報を参照してもよい。 S6: The bid determination unit 22 determines the attribute from the DSP cookie. The visiting domain of the cookie information DB 291 may be referred to, or the attribute information of the viewer specified by the DSP cookie may be referred to as appropriate.

S7:入札判断部22は配信設定DB292を参照して広角画像又は3DCG画像の提供元に対し設定されている好ましい対象者の属性又は好ましくない対象者の属性に基づいて、この閲覧者に広角画像を送信するか否かを決定する。ここでは少なくとも1つの広告主について配信すると決定したものとする。 S7: The bid determination unit 22 refers to the distribution setting DB 292, and based on the attributes of the preferred target person or the unfavorable target person set for the provider of the wide-angle image or the 3DCG image, the wide-angle image is given to this viewer. Decide whether to send. Here, it is assumed that it is decided to deliver to at least one advertiser.

S8:入札判断部22は広告主の予算や属性の一致度等に応じて入札金額を決定する。 S8: The bid judgment unit 22 determines the bid amount according to the advertiser's budget, the degree of matching of attributes, and the like.

S9:DSP20の入札部23はSSP50に入札する。SSP50の落札部54は複数のDSP20からの入札に対し原則的に最も高い入札金額を申し入れたDSP20を落札者に決定する。 S9: The bidding section 23 of the DSP 20 bids on the SSP 50. The successful bidder 54 of the SSP50 determines as the winning bidder the DSP20 that has offered the highest bid amount in principle for bids from a plurality of DSP20s.

S10:ここでは図示するDSP20が落札したものとする。SSP50は落札IDをDSP20に通知する。 S10: Here, it is assumed that the illustrated DSP20 has made a successful bid. The SSP 50 notifies the DSP 20 of the winning bid ID.

S11:SSP50のアクセス情報送信部53は落札IDと共にアクセス情報1を端末装置30に送信する。 S11: The access information transmission unit 53 of the SSP 50 transmits the access information 1 to the terminal device 30 together with the successful bid ID.

S12:端末装置30の広告要求部38はアクセス情報1を実行することで落札IDと共に広告要求をDSP20に送信する。 S12: The advertisement request unit 38 of the terminal device 30 transmits the advertisement request to the DSP 20 together with the winning bid ID by executing the access information 1.

S13:DSP20の広告要求受付部24は落札IDにより広告リクエストを特定する。画像依頼部25は広告主ID、DSPクッキー、及び、広告リクエストと共に画像配信装置10に画像を要求する。 S13: The advertisement request reception unit 24 of the DSP 20 identifies the advertisement request by the winning bid ID. The image requesting unit 25 requests an image from the image distribution device 10 together with the advertiser ID, the DSP cookie, and the advertisement request.

S14:画像配信装置10の画像情報応答部11は画像要求を受信すると広告リクエストを特定するための広告機会IDを生成する。 S14: When the image information response unit 11 of the image distribution device 10 receives the image request, it generates an advertisement opportunity ID for specifying the advertisement request.

S15:画像情報応答部11は広告機会IDと対応付けられたアクセス情報2をDSP20に送信する。 S15: The image information response unit 11 transmits the access information 2 associated with the advertisement opportunity ID to the DSP 20.

S16:DSP20の画像依頼部25はアクセス情報2を受信して、広告要求受付部24が端末装置30に送信する。 S16: The image requesting unit 25 of the DSP 20 receives the access information 2, and the advertisement request receiving unit 24 transmits it to the terminal device 30.

S17:端末装置30の広告取得部39はアクセス情報2に含まれる画像配信装置10のURLに基づいて広告要求(広告機会ID)を送信する。端末装置30が画像クッキーを保持している場合は画像クッキーを送信することができる。 S17: The advertisement acquisition unit 39 of the terminal device 30 transmits an advertisement request (advertisement opportunity ID) based on the URL of the image distribution device 10 included in the access information 2. When the terminal device 30 holds the image cookie, the image cookie can be transmitted.

S18:画像配信装置10の広告配信部12は広告機会IDにより画像要求を特定する。 S18: The advertisement distribution unit 12 of the image distribution device 10 identifies the image request by the advertisement opportunity ID.

S19:広告配信部12はDSPクッキーから属性を判断したり、画像クッキーから属性を判断したりする。 S19: The advertisement distribution unit 12 determines the attribute from the DSP cookie or determines the attribute from the image cookie.

S20:広告配信部12は広告主IDと属性に基づき全天球画像6を特定する。すなわち、広告画像DB194を参照し全天球画像6又は3DCG画像に対し設定されている配信の対象者の属性又は優先度に基づいて送信する全天球画像6又は3DCG画像を決定する。表示パターンはクリック回数が閾値より高いものであるが、全天球画像6又は3DCG画像の配信数が少ない間は不作為に選択する。 S20: The advertisement distribution unit 12 identifies the spherical image 6 based on the advertiser ID and attributes. That is, the all-sky image 6 or 3DCG image to be transmitted is determined based on the attribute or priority of the distribution target person set for the all-sky image 6 or 3DCG image with reference to the advertisement image DB 194. The display pattern has a click count higher than the threshold value, but is randomly selected while the number of distributions of the spherical image 6 or the 3DCG image is small.

S21:広告配信部12は全天球画像6又は3DCG画像(両方の場合もある)、初期位置、表示パターン、画像ID、画像クッキー、及び、広告枠IDを含む広告データを端末装置30に送信する。全天球画像6又は3DCG画像には広告主Webサーバ70のURLが対応付けられている。また、画像配信装置10が複数の表示画像(アニメーション)を作成する場合、全天球画像6又は3DCG画像でなく複数の表示画像が配信される。 S21: The advertisement distribution unit 12 transmits the advertisement data including the all-sky image 6 or the 3DCG image (which may be both), the initial position, the display pattern, the image ID, the image cookie, and the advertisement space ID to the terminal device 30. To do. The URL of the advertiser Web server 70 is associated with the spherical image 6 or the 3DCG image. Further, when the image distribution device 10 creates a plurality of display images (animations), a plurality of display images are distributed instead of the spherical image 6 or the 3DCG image.

S22:端末装置30の広告取得部39は広告データを取得し、広告表示部40が広告枠7に全天球画像6又は3DCG画像を表示する。閲覧者が広告枠7を押下(クリック又はタップ)すると操作受付部34が受け付け、広告主Webサーバ70のURLに基づいてWebページ取得部31が広告主Webサーバ70と通信を開始する。 S22: The advertisement acquisition unit 39 of the terminal device 30 acquires the advertisement data, and the advertisement display unit 40 displays the spherical image 6 or the 3DCG image on the advertisement frame 7. When the viewer presses (clicks or taps) the advertisement space 7, the operation reception unit 34 accepts the advertisement frame 7, and the Web page acquisition unit 31 starts communication with the advertiser Web server 70 based on the URL of the advertiser Web server 70.

<端末装置の動作>
図30は広告データを受信した端末装置30の動作を説明するフローチャート図の一例である。図30(a)は、端末装置30が複数の表示画像を作成する場合の動作手順であり、図30(b)は画像配信装置10が複数の表示画像を作成する場合の動作手順である。
<Operation of terminal device>
FIG. 30 is an example of a flowchart for explaining the operation of the terminal device 30 that has received the advertisement data. FIG. 30A is an operation procedure when the terminal device 30 creates a plurality of display images, and FIG. 30B is an operation procedure when the image distribution device 10 creates a plurality of display images.

ステップS401では、端末装置30の広告取得部39が全天球画像又は3DCG画像(両方の場合もある)と表示パターンを受信する。 In step S401, the advertisement acquisition unit 39 of the terminal device 30 receives the spherical image or the 3DCG image (which may be both) and the display pattern.

ステップS402では、表示画像生成部44は表示パターンに含まれる時系列のパラメータを順番に取得する。 In step S402, the display image generation unit 44 sequentially acquires the time-series parameters included in the display pattern.

ステップS403では、表示画像生成部44はパラメータにしたがって所定領域画像又は投影画像を生成し、広告表示部40は所定領域画像又は投影画像を広告枠7に表示する。 In step S403, the display image generation unit 44 generates a predetermined area image or a projected image according to the parameter, and the advertisement display unit 40 displays the predetermined area image or the projected image on the advertisement frame 7.

ステップS404では、表示画像生成部44は再生が終了したか否かを判断する。再生が終了したか否かの判断とは表示パターンを決まった回数だけ繰り返したか否かを判断することをいう。再生終了まで処理はステップS402に戻り、再生が終了すると広告表示部40は所定領域画像又は投影画像は停止して処理が終了する。 In step S404, the display image generation unit 44 determines whether or not the reproduction is completed. Judgment as to whether or not playback has ended means determining whether or not the display pattern has been repeated a fixed number of times. The process returns to step S402 until the end of the reproduction, and when the reproduction is completed, the advertisement display unit 40 stops the predetermined area image or the projected image and ends the process.

画像配信装置10が複数の表示画像を作成する場合、ステップS501では、端末装置30の広告取得部39が全天球画像又は3DCG画像と表示パターンから生成された複数の表示画像を受信する。 When the image distribution device 10 creates a plurality of display images, in step S501, the advertisement acquisition unit 39 of the terminal device 30 receives the spherical image or the 3DCG image and the plurality of display images generated from the display pattern.

ステップS502では、広告表示部40は複数の表示画像を動画(又はアニメーション)のように再生する。最後まで再生すると再生を終了する。 In step S502, the advertisement display unit 40 reproduces a plurality of display images like a moving image (or animation). Playback ends when it is played to the end.

<広告データの配信形態の補足>
本実施形態では第三者配信という仕組みで広告が配信されたが、広告は最終的に端末装置30が表示するWebページに表示されればよい。図31は広告データが配信されるいくつかの形態を示す。
<Supplementary form of advertisement data distribution>
In the present embodiment, the advertisement is distributed by a mechanism of third-party distribution, but the advertisement may be finally displayed on the Web page displayed by the terminal device 30. FIG. 31 shows some forms in which the advertisement data is delivered.

図31(a)ではパートナーサイトWebサーバ60が配信するWebページに広告データが含まれる状態でWebページが送信されている。この場合、広告主はパートナーサイトWebサーバ60に予め画像データを入稿している。 In FIG. 31A, the Web page is transmitted with the advertisement data included in the Web page distributed by the partner site Web server 60. In this case, the advertiser has previously submitted the image data to the partner site Web server 60.

図31(b)では広告配信サーバ80が広告データを配信している。パートナーサイトWebサーバ60が広告を載せたいWebページを広告配信サーバ80に登録する。これにより、広告配信サーバ80はアドタグを出力するので、パートナーサイトWebサーバ60は広告を載せたいWebページにアドタグを貼り付ける。また、広告主は広告データを広告配信サーバ80に入稿しておく。 In FIG. 31B, the advertisement distribution server 80 distributes the advertisement data. The partner site Web server 60 registers the Web page on which the advertisement is to be placed on the advertisement distribution server 80. As a result, the advertisement distribution server 80 outputs the ad tag, so that the partner site Web server 60 attaches the ad tag to the Web page on which the advertisement is to be placed. In addition, the advertiser uploads the advertisement data to the advertisement distribution server 80.

閲覧者がパートナーサイトWebサーバ60にアクセスをすると、アドタグにより広告配信サーバ80を呼び出す。広告配信サーバ80は各広告主から入稿されたどの広告を配信するか判断し、広告データを端末装置30に送信する。 When the viewer accesses the partner site Web server 60, the advertisement distribution server 80 is called by the ad tag. The advertisement distribution server 80 determines which advertisement submitted by each advertiser is to be distributed, and transmits the advertisement data to the terminal device 30.

図31(c)は本実施形態で説明した態様における広告データの配信例である。本実施形態で説明したように、画像配信装置10が広告データを配信してもよいし、DSP20が配信してもよい。広告主は広告データをDSP20に入稿しておけばよい。また、図31(c)の構成では、DSP20又は画像配信装置10が広告配信サーバ80となる。 FIG. 31 (c) is an example of distribution of advertisement data in the embodiment described in this embodiment. As described in this embodiment, the image distribution device 10 may distribute the advertisement data, or the DSP 20 may distribute the advertisement data. The advertiser may upload the advertisement data to the DSP 20. Further, in the configuration of FIG. 31C, the DSP 20 or the image distribution device 10 serves as the advertisement distribution server 80.

また、画像データの好適例として広告枠7に表示される画像データを説明したが、端末装置30に配信され閲覧者の操作で変化する(インタラクティブ性がある)画像データであれば広告に限られず本実施形態を好適に適用できる。 Further, although the image data displayed in the advertisement frame 7 has been described as a preferable example of the image data, the image data is not limited to the advertisement as long as the image data is distributed to the terminal device 30 and changes by the operation of the viewer (has interactiveness). The present embodiment can be preferably applied.

<まとめ>
以上説明したように、本実施形態の画像表示システムは、このように視点を制約することにより、視点が不自然に遷移することを防ぐことができる。例えば、コンテンツを真上から見下ろしたり、真下から見上げたりする視点に遷移することを抑制できる。また、要素軌道を設定した上で視点を制約することで異なる視線方向を複雑な軌道で遷移することを抑制できる。したがって、適切な視点でコンテンツを表示することができ、広告効果を高めやすくなる。
<Summary>
As described above, the image display system of the present embodiment can prevent the viewpoint from transitioning unnaturally by restricting the viewpoint in this way. For example, it is possible to suppress the transition to a viewpoint in which the content is viewed from directly above or looked up from directly below. In addition, by constraining the viewpoint after setting the element trajectory, it is possible to suppress the transition of different line-of-sight directions in a complicated trajectory. Therefore, the content can be displayed from an appropriate viewpoint, and it becomes easy to enhance the advertising effect.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to Examples, the present invention is not limited to these Examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、仮想的なカメラの位置は球体に限らず、楕円や直方体等でもよい。 For example, the position of the virtual camera is not limited to a sphere, but may be an ellipse, a rectangular parallelepiped, or the like.

また、本実施形態では、広告枠7に全天球画像6が表示される例を説明したが、全天球画像6は広角な画像であればよい。すなわち、広告枠7には入りきらない画角を有し、閲覧者の操作で見られる範囲が変わる画像データであればよい。また、Webページに表示される画像は広告用の画像である必要はなく、閲覧されうる画像データであればよい。 Further, in the present embodiment, the example in which the spherical image 6 is displayed in the advertising space 7 has been described, but the spherical image 6 may be a wide-angle image. That is, the image data may be any image data having an angle of view that does not fit in the advertising space 7 and whose viewing range can be changed by the operation of the viewer. Further, the image displayed on the Web page does not have to be an image for advertisement, and may be image data that can be viewed.

また、全天球画像6を表示する端末装置30のアプリケーションはブラウザソフトに限られず、任意のアプリケーションソフトウェアが画面に全天球画像6や3DCG画像を表示する際にも本実施形態を適用できる。 Further, the application of the terminal device 30 for displaying the all-sky image 6 is not limited to the browser software, and the present embodiment can be applied when any application software displays the all-sky image 6 or the 3DCG image on the screen.

本実施形態では端末装置30がDSP20にアクセスし、次に、画像配信装置10にアクセスして広告データを取得している。しかし、DSP20が画像配信装置10から直接、広告データを取得して端末装置30に送信してもよい。端末装置30はDSP20にアクセスするだけで広告データを取得できるため、広告が表示されるまでの時間を短縮できる。また、DSP20と画像配信装置10が一体に構成されており、DSP20が広告データ(全天球画像)を端末装置30に配信してもよい。 In the present embodiment, the terminal device 30 accesses the DSP 20 and then accesses the image distribution device 10 to acquire advertisement data. However, the DSP 20 may acquire the advertisement data directly from the image distribution device 10 and transmit it to the terminal device 30. Since the terminal device 30 can acquire the advertisement data only by accessing the DSP 20, the time until the advertisement is displayed can be shortened. Further, the DSP 20 and the image distribution device 10 are integrally configured, and the DSP 20 may distribute the advertisement data (omnidirectional image) to the terminal device 30.

また、本実施形態で説明されたSSP50,DSP20及び画像配信装置10が連携する広告の配信方法は一例に過ぎず、端末装置30が広告を表示するまでのプロセスを制限する意図はない。例えば、単純なプロセスとして、パートナーサイトWebサーバ60が広告主からの広告データを預かっておき、端末装置30に配信してもよい。この場合、SSP50、DSP20及び画像配信装置10はなくてよい。 Further, the advertisement distribution method in which the SSP 50, DSP 20 and the image distribution device 10 linked with each other described in the present embodiment is only an example, and there is no intention of limiting the process until the terminal device 30 displays the advertisement. For example, as a simple process, the partner site Web server 60 may store the advertisement data from the advertiser and distribute it to the terminal device 30. In this case, the SSP 50, the DSP 20, and the image distribution device 10 are not required.

また、全天球画像6は2つの画像が張り合わされる方法で作成される場合に限られず、例えば、撮像方向を少しずつ移動しながら撮像した画像データの重複部分を重ね合わせて作成してもよい。すなわち、全天球画像6の作成方法は制限されない。 Further, the spherical image 6 is not limited to the case where two images are pasted together, and for example, the spherical image 6 may be created by superimposing overlapping portions of image data captured while moving the imaging direction little by little. Good. That is, the method of creating the spherical image 6 is not limited.

また、以上の実施例で示した図13などの構成例は、画像表示システム100の処理の理解を容易にするために、主な機能に応じて分割したものである。しかし、各処理単位の分割の仕方や名称によって本願発明が制限されることはない。画像表示システム100は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration examples such as FIG. 13 shown in the above examples are divided according to the main functions in order to facilitate understanding of the processing of the image display system 100. However, the present invention is not limited by the method and name of division of each processing unit. The image display system 100 can be divided into more processing units according to the processing content. Further, one processing unit can be divided so as to include more processing.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

7 広告枠
10 画像配信装置
20 DSP
30 端末装置
40 広告表示部
50 SSP
60 パートナーサイトWebサーバ
70 広告主Webサーバ
100 画像表示システム
7 Advertising space 10 Image distribution device 20 DSP
30 Terminal device 40 Advertising display unit 50 SSP
60 Partner site web server 70 Advertiser web server 100 Image display system

特開2008−192115号公報Japanese Unexamined Patent Publication No. 2008-192115

C.H. Lee, A. Varshney, D.W. Jacobs, "Mesh saliency," ACM transactions on graphics (TOG), Vol. 24. No. 3. 2005.C.H. Lee, A. Varshney, D.W. Jacobs, "Mesh saliency," ACM transactions on graphics (TOG), Vol. 24. No. 3. 2005.

Claims (11)

画像を配信する画像配信装置から端末装置がコンテンツを受信する画像表示システムであって、
前記画像配信装置は、
1つ以上のコンテンツを異なる視点で表示する表示パターンを生成する表示パターン生成部と、
前記視点を制約する制約部と、
前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を前記端末装置に配信する配信部と、を有し、
前記端末装置は、
前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を取得する取得部と、
前記取得部が取得した前記コンテンツを前記表示パターンで視点を変えて表示するか、又は、前記表示パターンに基づいて生成された前記複数の表示画像を表示する表示部と、
を有することを特徴とする画像表示システム。
An image display system in which a terminal device receives content from an image distribution device that distributes images.
The image distribution device is
A display pattern generator that generates a display pattern that displays one or more contents from different viewpoints,
The constraint part that constrains the viewpoint and
It has the display pattern and the content, or a distribution unit that distributes a plurality of display images generated based on the display pattern to the terminal device.
The terminal device is
An acquisition unit that acquires the display pattern and the content, or a plurality of display images generated based on the display pattern, and
A display unit that displays the content acquired by the acquisition unit with a different viewpoint in the display pattern, or displays the plurality of display images generated based on the display pattern.
An image display system characterized by having.
前記制約部は、前記コンテンツを閲覧するための視点を表す座標において特定の領域への前記視点の遷移を禁止又は制限することを特徴とする請求項1に記載の画像表示システム。 The image display system according to claim 1, wherein the restriction unit prohibits or restricts the transition of the viewpoint to a specific area at coordinates representing the viewpoint for viewing the content. 前記制約部は、前記視点を表す仮想的なカメラの位置又は前記コンテンツに対する視線方向のうち、前記視点を表す座標の所定の軸に対して取り得る値を制約することを特徴とする請求項1又は2に記載の画像表示システム。 Claim 1 is characterized in that the constraint unit constrains a value that can be taken with respect to a predetermined axis of coordinates representing the viewpoint among the position of a virtual camera representing the viewpoint or the direction of the line of sight with respect to the content. Or the image display system according to 2. 前記コンテンツの注目点を決定する注目点決定部を有し、
前記表示パターン生成部は、前記注目点決定部が決定した複数の前記注目点のうち、前記制約部が制約した座標の範囲内に限定して、前記注目点を時系列に設定することで前記表示パターンを生成することを特徴とする請求項3に記載の画像表示システム。
It has a point of interest determination unit that determines the point of interest of the content.
The display pattern generation unit is limited to the range of the coordinates constrained by the constraint unit among the plurality of the attention points determined by the attention point determination unit, and sets the attention points in time series. The image display system according to claim 3, wherein a display pattern is generated.
前記コンテンツの注目点を決定する注目点決定部を有し、
前記表示パターン生成部は、前記注目点決定部が決定した複数の前記注目点のうち、前記制約部による制約から外れる座標の範囲の注目度を小さくした上で、注目度が大きい注目点を優先して時系列に設定することで前記表示パターンを生成することを特徴とする請求項3に記載の画像表示システム。
It has a point of interest determination unit that determines the point of interest of the content.
Among the plurality of attention points determined by the attention point determination unit, the display pattern generation unit reduces the degree of attention in the range of coordinates that deviates from the constraint by the constraint unit, and then gives priority to the attention point having a large degree of attention. The image display system according to claim 3, wherein the display pattern is generated by setting the display pattern in time series.
前記表示パターン生成部は、前記コンテンツの周囲を回転する要素軌道が通過する注目点の注目度に基づいて、前記要素軌道を視点とする前記表示パターンを生成することを特徴とする請求項1又は2に記載の画像表示システム。 The display pattern generation unit is characterized in that it generates the display pattern with the element trajectory as a viewpoint based on the degree of attention of a point of interest through which the element trajectory rotating around the content passes. The image display system according to 2. 前記コンテンツの注目点を決定する注目点決定部を有し、
前記表示パターン生成部は、前記要素軌道が通過する前記注目点決定部が決定した注目点の前記注目度を累積し、累積した前記注目度が最も高い前記要素軌道を決定し、
前記要素軌道を視点とする前記表示パターンを生成することを特徴とする請求項6に記載の画像表示システム。
It has a point of interest determination unit that determines the point of interest of the content.
The display pattern generation unit accumulates the attention points of the points of interest determined by the attention point determination unit through which the element trajectory passes, and determines the element trajectory having the highest accumulated attention.
The image display system according to claim 6, wherein the display pattern with the element trajectory as a viewpoint is generated.
前記表示パターン生成部は、前記要素軌道のパラメータ空間を離散化して、各パラメータに対する前記注目度の累積値を求め、前記注目度の累積値を確率と見なして、クラスタリングを行い、各クラスタの代表値を前記要素軌道のパラメータに決定し、
決定した前記要素軌道を視点とする前記表示パターンを生成することを特徴とする請求項6に記載の画像表示システム。
The display pattern generation unit discretizes the parameter space of the element trajectory, obtains the cumulative value of the attention level for each parameter, regards the cumulative value of the attention level as a probability, performs clustering, and represents each cluster. The value is determined as the parameter of the element trajectory,
The image display system according to claim 6, wherein the display pattern is generated with the determined element trajectory as a viewpoint.
前記表示パターン生成部は、前記要素軌道のパラメータを補間した前記表示パターンを生成することを特徴とする請求項8に記載の画像表示システム。 The image display system according to claim 8, wherein the display pattern generation unit generates the display pattern by interpolating the parameters of the element trajectories. 画像を配信する画像配信装置から端末装置がコンテンツを受信する画像表示システムが行う画像配信方法であって、
前記画像配信装置は、
表示パターン生成部が、1つ以上のコンテンツを異なる視点で表示する表示パターンを生成するステップと、
制約部が、前記視点を制約するステップと、
配信部が、前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を前記端末装置に配信するステップと、を有し、
前記端末装置は、
取得部が、前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を取得するステップと、
表示部が、前記取得部が取得した前記コンテンツを前記表示パターンで視点を変えて表示するか、又は、前記表示パターンに基づいて生成された前記複数の表示画像を表示するステップと、
を有することを特徴とする画像配信方法。
This is an image distribution method performed by an image display system in which a terminal device receives content from an image distribution device that distributes images.
The image distribution device is
A step in which the display pattern generator generates a display pattern that displays one or more contents from different viewpoints, and
The step in which the constraint unit constrains the viewpoint,
The distribution unit includes the display pattern and the content, or a step of distributing a plurality of display images generated based on the display pattern to the terminal device.
The terminal device is
A step in which the acquisition unit acquires the display pattern and the content, or a plurality of display images generated based on the display pattern, and
A step in which the display unit displays the content acquired by the acquisition unit from different viewpoints in the display pattern, or displays the plurality of display images generated based on the display pattern.
An image distribution method characterized by having.
端末装置に画像を配信する画像配信装置を
1つ以上のコンテンツを異なる視点で表示する表示パターンを生成する表示パターン生成部と、
前記視点を制約する制約部と、
前記表示パターンと前記コンテンツ、又は、前記表示パターンに基づいて生成された複数の表示画像を前記端末装置に配信する配信部、
として機能させるためのプログラム。
An image distribution device that distributes images to a terminal device, a display pattern generator that generates a display pattern that displays one or more contents from different viewpoints, and a display pattern generator.
The constraint part that constrains the viewpoint and
A distribution unit that distributes the display pattern and the content, or a plurality of display images generated based on the display pattern to the terminal device.
A program to function as.
JP2019050320A 2019-03-18 2019-03-18 Image display system, image distribution method, and program Pending JP2020154457A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019050320A JP2020154457A (en) 2019-03-18 2019-03-18 Image display system, image distribution method, and program
PCT/JP2020/009701 WO2020189341A1 (en) 2019-03-18 2020-03-06 Image display system, image distribution method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050320A JP2020154457A (en) 2019-03-18 2019-03-18 Image display system, image distribution method, and program

Publications (1)

Publication Number Publication Date
JP2020154457A true JP2020154457A (en) 2020-09-24

Family

ID=69904140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050320A Pending JP2020154457A (en) 2019-03-18 2019-03-18 Image display system, image distribution method, and program

Country Status (2)

Country Link
JP (1) JP2020154457A (en)
WO (1) WO2020189341A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070294A1 (en) * 2022-09-29 2024-04-04 株式会社日立システムズ Content correction device and content correction method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5215572B2 (en) 2007-01-31 2013-06-19 ヤフー株式会社 Content match advertising technology for Internet video
JP6539253B2 (en) * 2016-12-06 2019-07-03 キヤノン株式会社 INFORMATION PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP7069970B2 (en) * 2017-07-18 2022-05-18 株式会社リコー Browsing system, image distribution device, image distribution method, program
US10701263B2 (en) * 2017-07-18 2020-06-30 Ricoh Company, Ltd. Browsing system, image distribution apparatus, and image distribution method
JP6846687B2 (en) 2017-09-12 2021-03-24 パナソニックIpマネジメント株式会社 Semiconductor devices and their manufacturing methods

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070294A1 (en) * 2022-09-29 2024-04-04 株式会社日立システムズ Content correction device and content correction method

Also Published As

Publication number Publication date
WO2020189341A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
US11140324B2 (en) Method of displaying wide-angle image, image display system, and information processing apparatus
US10140620B2 (en) Mobile device system and method providing combined delivery system using 3D geo-target location-based mobile commerce searching/purchases, discounts/coupons products, goods, and services, or service providers-geomapping-company/local and socially-conscious information/social networking (“PS-GM-C/LandSC/I-SN”)
US8494215B2 (en) Augmenting a field of view in connection with vision-tracking
US10701263B2 (en) Browsing system, image distribution apparatus, and image distribution method
US10877649B2 (en) Browsing system, browsing method, and information processing apparatus
JP6235014B2 (en) Browsing 3D objects in documents
CN102426608A (en) Techniques to annotate street view images with contextual information
US20150046280A1 (en) Technologies for video-based commerce
JP5600148B2 (en) VIDEO DISTRIBUTION DEVICE, VIDEO DISTRIBUTION METHOD, AND VIDEO DISTRIBUTION PROGRAM
KR102198583B1 (en) VR shopping mall operation management system and drive method of the Same
JP7069970B2 (en) Browsing system, image distribution device, image distribution method, program
EP3864605A1 (en) Method and system for automated real estate information and offers
US11694400B2 (en) Systems and methods for supplementing digital media with three-dimensional (3D) models
JP7063264B2 (en) Information processing systems, recording media, information processing methods, and programs
US11432046B1 (en) Interactive, personalized objects in content creator&#39;s media with e-commerce link associated therewith
WO2020189341A1 (en) Image display system, image distribution method, and program
JP2022013427A (en) Information processing apparatus, image generation method, and program
JP6844420B2 (en) Browsing system, program
JP2021056852A (en) Program, information processing apparatus, and display method
JP6891667B2 (en) Browsing system, program
US10991342B2 (en) Terminal apparatus, system, and method of displaying image
JP2021052224A (en) Program, information processing apparatus, and display method
JP2020144821A (en) Image display system, image display method, and program
JP2020149364A (en) Image display system, image display method, and program
JP7031168B2 (en) Browsing system, information processing device, image distribution method, program