JP7052225B2 - 情報処理装置、情報処理システムおよび情報処理方法 - Google Patents

情報処理装置、情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP7052225B2
JP7052225B2 JP2017111900A JP2017111900A JP7052225B2 JP 7052225 B2 JP7052225 B2 JP 7052225B2 JP 2017111900 A JP2017111900 A JP 2017111900A JP 2017111900 A JP2017111900 A JP 2017111900A JP 7052225 B2 JP7052225 B2 JP 7052225B2
Authority
JP
Japan
Prior art keywords
display
information
unit
content
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017111900A
Other languages
English (en)
Other versions
JP2018205570A (ja
Inventor
直哉 藤▲崎▼
淳一 由良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017111900A priority Critical patent/JP7052225B2/ja
Priority to US15/995,967 priority patent/US10599940B2/en
Publication of JP2018205570A publication Critical patent/JP2018205570A/ja
Application granted granted Critical
Publication of JP7052225B2 publication Critical patent/JP7052225B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、情報処理装置等に関する。
近年、デジタルコンテンツにおけるウェブサービスのプロバイダが、スマート端末に対して自身のウェブサービスにアクセスできるアプリケーションを提供する。ウェブサービスには、2次元コンテンツの他に、3次元コンテンツ、所謂、360°コンテンツやパノラマコンテンツを対象とするサービスが知られている。例えば、グーグル社の「ストリートビュー(登録商標)」というサービスは、360°コンテンツのサービスの代表格である。360°コンテンツは、博物館および美術館の作品鑑賞、並びに不動産の物件紹介などでも提供される。
また、コンテンツのサービスとして、仮想的な観光旅行を提供する仮想観光システムが開示されている(例えば、特許文献1参照)。かかる仮想観光システムでは、仮想観光サーバにおいて、ユーザの分身であるアバターが地図上の道路・鉄道路線のルート検索を行って、検索位置および他のアバターが保有する地域情報を地図情報とともにユーザ端末のブラウザに表示する。
また、コンテンツのサービスとして、移動を模擬する模擬移動処理システムが開示されている(例えば、特許文献2参照)。かかる模擬移動処理システムは、移動開始位置と行先に基づきDBから地図データを取込み、送付された経路および指定された移動速度に基づき直近位置と視界方向を設定する。そして、模擬移動処理システムは、DBを検索して直近位置に対応するコンテンツ情報(画像データ)を取り出して、受理側装置に模擬移動の画面などを提示させる。
また、コンテンツに対して実行された表示操作からユーザの意図をくみ取り、複数の周辺機器にコンテンツを見やすく表示させる技術が開示されている(例えば、特許文献3参照)。かかる技術では、端末に入力される第1の表示画面で表示中のコンテンツに対する操作に応じて決定される中心位置又は方向の情報を用いて、第2の表示画面(周辺機器)に表示させるコンテンツの表示位置を設定する。そして、設定した表示位置にコンテンツが表示されるように第2の表示画面(周辺機器)に対する表示条件を決定する。
特開2007-293803号公報 特開2004-78549号公報 特開2013-206317号公報 特開2007-156979号公報
ところで、展示場やショールームなどで、360°コンテンツをユーザが体験する場合に、ユーザはスマート端末で操作して、操作を体験したいという要望がある。360°コンテンツを効果的にアピールするには、例えば、ユーザは、スマート端末をコントローラとして、複数の画面(表示装置)に実世界のコンテンツを表示する。
360°コンテンツを複数の表示装置に表示させる場合には、サービスの設置者が、展示場やショールームに出向いて、複数の表示装置の台数や、各表示装置の向きなどを調整しながら各表示装置に設定する。しかしながら、複数の表示装置の台数や、各表示装置の向きなどは、展示開始前まで決定されない場合がある。かかる場合には、360°コンテンツを複数の表示装置に素早く適応させて提供することが難しいという問題がある。
例えば、複数の周辺機器にコンテンツを見やすく表示させる技術では、サービスの設置者が複数の表示装置の台数や、各表示装置の向きを調整すると、各表示装置の情報を端末に設定することが必要である。したがって、360°コンテンツを複数の表示装置に素早く適応させて提供することが難しい。
また、コンテンツのサービスとして開示された仮想観光システムや模擬移動処理システムは、そもそもコンテンツを複数の表示装置に提供する技術ではない。
1つの側面では、360°コンテンツを複数の表示装置に素早く適応させて提供することを目的とする。
本願の開示する情報処理装置は、複数の表示装置をパノラマ撮影した撮影画像の情報を取得する取得部と、前記取得部によって取得された撮影画像の情報を用いて、各表示装置がある地点のコンテンツ情報を表示する場合の表示装置ごとの表示様式の一部である視点方向を含む表示様式情報を生成する生成部と、前記生成部によって生成された表示様式情報に基づいて前記複数の表示装置にそれぞれ表示様式が異なる一連のコンテンツ情報を表示させるために、前記表示様式情報を送信する送信部と、を有する。
1つの態様によれば、360°コンテンツを複数の表示装置に素早く適応させて表示させることができる。
図1は、実施例1に係る情報処理システムの構成を示す図である。 図2は、実施例1に係るサーバの構成を示す機能ブロック図である。 図3は、実施例1に係る表示装置の構成を示す機能ブロック図である。 図4は、実施例1に係る移動端末の構成を示す機能ブロック図である。 図5は、表示様式情報生成の一例を示す図である。 図6は、表示様式情報生成の別の例を示す図である。 図7は、表示様式情報生成の別の例を示す図である。 図8は、被写体距離の推測方法の一例を示す図である。 図9は、実施例1に係るイベントコンビネーション情報の一例を示す図である。 図10は、実施例1に係る表示様式情報生成までのシーケンスを示す図である。 図11は、実施例1に係る利用開始のシーケンスを示す図である。 図12は、実施例1に係る各表示画面の一例を示す図である。 図13は、実施例2に係る移動端末の構成を示す機能ブロック図である。 図14は、実施例3に係るサーバの構成を示す機能ブロック図である。 図15は、実施例1,2,3に係る情報処理プログラムを実行するコンピュータのハードウェア構成を示す図である。
以下に、本願の開示する情報処理装置、情報処理システムおよび情報処理方法の実施例を図面に基づいて詳細に説明する。なお、実施例では、移動端末を情報処理装置の一例として説明する。また、実施例によりこの発明が限定されるものではない。
[情報処理システムの構成]
図1は、実施例1に係る情報処理システムの構成を示す図である。情報処理システム100は、デジタルコンテンツを表示するサービス(「コンテンツ表示サービス」という)を提供するシステムである。情報処理システム100は、サーバ10と、複数の表示装置20と、移動端末30とを有する。サーバ10は、通信ネットワーク50を介して表示装置20および移動端末30と接続される。表示装置20と移動端末30とは、例えばWiFiを経由して通信ネットワーク50に接続する。また、サーバ10と、表示装置20と、移動端末30とは、通信ネットワーク50を介してデジタルコンテンツサービス200と接続される。通信ネットワーク50は、例えば、インターネットを示す。
デジタルコンテンツサービス200は、様々なコンテンツサービスのサイトを表わす。デジタルコンテンツサービス200には、例えば、地図コンテンツのサービスや360°コンテンツのサービスが挙げられる。地図コンテンツのサービスには、一例として、グーグルマップ(登録商標)が挙げられる。360°コンテンツのサービスには、一例として、ストリートビュー(登録商標)が挙げられる。なお、実施例では、移動端末30は、デジタルコンテンツサービス200の地図コンテンツのサービスにアクセスするものとする。表示装置20は、デジタルコンテンツサービス200の360°コンテンツのサービスにアクセスするものとする。
サーバ10は、表示装置20と移動端末30とを連動させる。移動端末30は、複数の表示装置20をパノラマで撮影した撮影画像を解析し、表示装置20の数やカメラ視点方向を含む表示様式情報を生成する。ここでいう「表示様式情報」とは、複数の表示装置20がある地点のコンテンツ情報をそれぞれ表示する場合に、表示装置20を識別する識別情報ごとに対応付けられた表示様式の情報のことをいう。表示様式には、例えば、視点方向が挙げられる。サーバ10は、移動端末30によって生成された表示様式情報を管理するとともに表示装置20に配信する。各表示装置20は、サーバ10から配信された表示様式情報に基づいて、それぞれ表示様式が異なる一連のコンテンツ情報を表示する。
ここでは、情報処理システム100が展示会場に使用されるものとする。展示会場には、展示内容別に2つのスポットが存在する。各スポットには、1つ以上の表示装置20による映像体験の展示を想定した様子が表わされている。なお、実施例では、移動端末30は、デジタルコンテンツサービス200の地図コンテンツのサービスにアクセスするものとする。表示装置20は、デジタルコンテンツサービス200の360°コンテンツのサービスにアクセスするものとする。
移動端末30は、スポット1にチェックインすると、複数の表示装置20をパノラマで撮影した撮影画像を解析し、表示装置20の数やカメラ視点方向を含む表示様式情報を生成する。移動端末30は、生成した表示様式情報をサーバ10に送信する。
サーバ10は、移動端末30によって生成された表示様式情報を管理するとともに表示装置20に配信する。各表示装置20は、サーバ10から配信された表示様式情報に基づいて、自己の表示装置20が表示する場合に用いられる表示様式を決定する。
また、移動端末30は、地図コンテンツのサービスにアクセスし、地図コンテンツを表示する。ここで、移動端末30は、所定の操作が実施されると、所定の操作による操作イベントを、360°コンテンツのサービスによって用いられる操作イベントに変換し、変換した操作イベントの情報をサーバ10に送信する。ここで、所定の操作は、例えば、表示された地図コンテンツの所定の地点をクリックしたり、表示された地図コンテンツをドラッグしたりする場合である。
サーバ10は、操作イベントの情報を各表示装置20に配信する。各表示装置20は、サーバ10から配信された操作イベントの情報および決定された表示様式に基づいて、360°コンテンツのサービスにアクセスし、表示様式の異なる一連のコンテンツ情報を表示する。
これにより、移動端末30が各スポットにチェックインすることで、移動端末30を持つユーザはチェックインしたスポットに設置された表示装置20に映し出された360°コンテンツの映像を楽しむことができる。
[サーバの構成]
図2は、実施例1に係るサーバの構成を示す機能ブロック図である。図2に示すように、サーバ10は、コンテンツ表示サービス部11、アプリ・コンテンツ管理部12、表示様式情報管理部13、アプリ・コンテンツ配信サービス部14を有する。さらに、サーバ10は、スポット情報管理部15、チャネル情報管理部16、チャネル通信サービス部17およびOS(Operating System)18を有する。
コンテンツ表示サービス部11は、サーバ10内のコンテンツ表示サービスを提供する。コンテンツ表示サービス部11は、スポット情報管理部15、アプリ・コンテンツ管理部12、表示様式情報管理部13、チャネル情報管理部16にそれぞれ管理されている情報にアクセスし、編集することが可能である。
アプリ・コンテンツ管理部12は、表示装置20および移動端末30にコンテンツ表示サービスを提供するためのアプリケーションおよびコンテンツ(以降、アプリ・コンテンツという)を格納し、管理する。
表示様式情報管理部13は、移動端末30によって生成される表示様式情報を格納し、管理する。表示様式情報は、例えば、表示装置20を識別する識別情報と視点方向とを対応付けた情報である。一例として、識別情報としての「1」、視点方向としての「270°」が対応付けられる。識別情報としての「2」、視点方向としての「0°」が対応付けられる。識別情報としての「3」、視点方向としての「90°」が対応付けられる。
アプリ・コンテンツ配信サービス部14は、アプリ・コンテンツ管理部12によって管理された、コンテンツ表示サービスを提供するためのアプリ・コンテンツを表示装置20および移動端末30に配信する。コンテンツ表示サービスを提供するためのアプリ・コンテンツには、例えば、デジタルコンテンツサービス200の地図コンテンツのサービスにアクセスするためのアプリ・コンテンツが挙げられる。また、デジタルコンテンツサービス200の360°コンテンツのサービスにアクセスするためのアプリ・コンテンツが挙げられる。例えば、アプリ・コンテンツ配信サービス部14は、移動端末30に対して、地図コンテンツのサービスにアクセスするためのアプリ・コンテンツを配信する。アプリ・コンテンツ配信サービス部14は、表示装置20に対して、360°コンテンツのサービスにアクセスするためのアプリ・コンテンツを配信する。どの装置にどのアプリ・コンテンツを配信するのかは、予め定められる。
スポット情報管理部15は、各スポットに対する展示に関する展示情報および通信に関するチャネル名情報を格納し、管理する。
チャネル情報管理部16は、チャネル名ごとに通信し合う装置の情報などを管理する。
チャネル通信サービス部17は、後述する表示装置20のチャネル通信クライアント部22および後述する移動端末30のチャネル通信クライアント部32に対して、1チャネルに1つの通信グループを形成する。そして、チャネル通信サービス部17は、表示装置20のチャネル通信クライアント部22に対して双方向の情報通信を提供するとともに、移動端末30のチャネル通信クライアント部32に対して双方向の情報通信を提供する。例えば、チャネル通信サービス部17は、チャネルごとに、移動端末30から表示様式情報を受信し、受信した表示様式情報を表示様式情報管理部13に出力する。また、チャネル通信サービス部17は、チャネルごとに、表示様式情報管理部13によって管理された表示様式情報を表示装置20に配信する。また、チャネル通信サービス部17は、チャネルごとに、移動端末30から操作イベントを受信し、受信した操作イベントを表示装置20に配信する。なお、移動端末30から受信した操作イベントは、表示装置20で実行するアプリ・コンテンツに備わるイベントに変換されたものである。
[表示装置の構成]
図3は、実施例1に係る表示装置の構成を示す機能ブロック図である。図3に示すように、表示装置20は、表示部21、チャネル通信クライアント部22、アプリ・コンテンツ取得管理部23、アプリ・コンテンツ実行環境部24、識別情報記憶部25、表示様式決定部26、イベントリスナー部27およびOS28を有する。なお、表示様式決定部26は、決定部の一例である。アプリ・コンテンツ実行環境部24は、表示部の一例である。
表示部21は、各種の情報を表示する表示デバイスである。例えば、表示部21は、液晶ディスプレイまたは有機EL(ElectroLuminescence)ディスプレイなどによって実現される。
チャネル通信クライアント部22は、サーバ10のチャネル通信サービス部17と双方向の情報通信を行う。例えば、チャネル通信クライアント部22は、サーバ10から配信された表示様式情報を受信し、受信した表示様式情報を表示様式決定部26に出力する。また、チャネル通信クライアント部22は、サーバ10から配信された操作イベントを受信し、受信した操作イベントをイベントリスナー部27に出力する。
アプリ・コンテンツ取得管理部23は、サーバ10から表示装置20に配信されたアプリ・コンテンツを取得し、管理する。例えば、アプリ・コンテンツ取得管理部23は、サーバ10から表示装置20に配信された360°コンテンツのサービスにアクセスするためのアプリ・コンテンツを取得し、管理する。
アプリ・コンテンツ実行環境部24は、アプリ・コンテンツ取得管理部23によって管理されたアプリ・コンテンツを実行する。例えば、アプリ・コンテンツ実行環境部24は、360°コンテンツのサービスにアクセスするためのアプリ・コンテンツを実行する。
識別情報表示部25は、表示装置20ごとの識別情報29を管理する。識別情報表示部25は、アプリ・コンテンツ実行環境部24によって最初に表示されるコンテンツを、管理された識別情報29とともに表示部21に表示する。識別情報29は、例えば、数字であっても良いし、アルファベットでも良いし、表示装置20を一意に識別できる情報であれば良い。識別情報29は、あらかじめ図示せぬ記憶部に記憶される。なお、記憶部は、たとえばHDDまたはSSDとして実装される。
表示様式決定部26は、表示様式情報と識別情報29とから、自表示装置20が表示する場合に用いられる表示様式を決定する。一例として、表示様式情報には、識別情報と視点方向とが対応付けられているとする。識別情報が「1」である場合には、視点方向として「270°」、識別情報が「2」である場合には、視点方向として「0°」、識別情報が「3」である場合には、視点方向として「90°」であるとする。識別情報29が「1」であるとする。すると、表示様式決定部26は、表示様式情報と識別情報29とから、自表示装置20の表示様式として視点方向を「270°」と決定する。
イベントリスナー部27は、自装置からの各種ハードウェアのイベントを、実行中のアプリ・コンテンツに通知する。イベントリスナー部27は、実行中のアプリ・コンテンツから自装置への各種ハードウェアにイベントの実行を命令する。例えば、イベントリスナー部27は、チャネル通信クライアント部22から出力された操作イベントおよび表示様式決定部26によって決定された表示様式を、実行中のアプリ・コンテンツに通知する。イベントリスナー部27は、実行中のアプリ・コンテンツから自装置への表示部21に操作イベントに対する応答イベントの実行を命令する。一例として、操作イベントが、ある地点のクリックイベントであり、決定された視点方向が270°であるとする。すると、イベントリスナー部27は、ある地点のクリックイベントおよび決定された視点方向である270°を、実行中の360°コンテンツのサービスにアクセスするためのアプリ・コンテンツに通知する。なお、ある地点のクリックイベントは、360°コンテンツのサービスにアクセスするためのアプリ・コンテンツに備わるイベントに変換されたものである。
[移動端末の構成]
図4は、実施例1に係る移動端末の構成を示す機能ブロック図である。図4に示すように、移動端末30は、表示部31、チャネル通信クライアント部32、アプリ・コンテンツ取得管理部33、アプリ・コンテンツ実行環境部34、イベントリスナー部35およびイベントコンビネーション部36を有する。さらに、移動端末30は、撮影機能部37、スポット環境情報取得部38、表示様式情報生成部39およびOS40を有する。なお、スポット環境情報取得部38は、取得部の一例である。表示様式情報生成部39は、生成部の一例である。チャネル通信クライアント部32は、送信部の一例である。
表示部31は、各種の情報を表示する表示デバイスである。例えば、表示部31は、液晶ディスプレイまたは有機EL(ElectroLuminescence)ディスプレイなどによって実現される。
チャネル通信クライアント部32は、サーバ10のチャネル通信サービス部17と双方向の情報通信を行う。例えば、チャネル通信クライアント部32は、後述する表示様式情報生成部39によって生成される表示様式情報をサーバ10に対して送信する。また、チャネル通信クライアント部32は、後述するイベントコンビネーション部36によって変換された操作イベントをサーバ10に対して送信する。
アプリ・コンテンツ取得管理部33は、サーバ10から移動端末30に配信されたアプリ・コンテンツを取得し、管理する。例えば、アプリ・コンテンツ取得管理部33は、サーバ10から移動端末30に配信された地図コンテンツのサービスにアクセスするためのアプリ・コンテンツを取得し、管理する。
アプリ・コンテンツ実行環境部34は、アプリ・コンテンツ取得管理部33によって管理されたアプリ・コンテンツを実行する。例えば、アプリ・コンテンツ実行環境部34は、地図コンテンツのサービスにアクセスするためのアプリ・コンテンツを実行する。
イベントリスナー部35は、自装置からの各種ハードウェアのイベントを、実行中のアプリ・コンテンツに通知する。イベントリスナー部34は、実行中のアプリ・コンテンツから自装置への各種ハードウェアにイベントの実行を命令する。例えば、イベントリスナー部34は、表示部31の操作イベントを実行中のアプリ・コンテンツに通知する。イベントリスナー部34は、実行中のアプリ・コンテンツから自装置への表示部21に操作イベントに対する応答イベントの実行を命令する。一例として、操作イベントが、ある地点のクリックイベントであるとする。すると、イベントリスナー部35は、ある地点のクリックイベントを、実行中の地図コンテンツのサービスにアクセスするためのアプリ・コンテンツに通知する。別の例として、操作イベントが、ドラッグイベントであるとする。すると、イベントリスナー部35は、ドラッグイベントを、実行中の地図コンテンツのサービスにアクセスするためのアプリ・コンテンツに通知する。
イベントコンビネーション部36は、自装置からの各種ハードウェアのイベントとその情報および表示装置20への各種ハードウェアのイベントとその情報を、組み合わしたり、結合したり、変換したりする。例えば、イベントコンビネーション部36は、自装置の表示部31の操作イベントから、表示装置20の表示部21が仮に操作した場合の操作イベントに変換する。一例として、操作イベントが、実行中の地図コンテンツのサービスにアクセスするためのアプリ・コンテンツに備わるイベントであって、ある地点のクリックイベントであるとする。すると、イベントコンビネーション部36は、ある地点の緯度経度を含むクリックイベントから、表示装置20で実行中の360°コンテンツのサービスにアクセスするためのアプリ・コンテンツに備わるイベントに変換する。
また、イベントコンビネーション部36は、一方のイベントから他方のイベントに変換する情報をあらかじめイベントコンビネーション情報41として記憶部に記憶する。なお、記憶部は、たとえばHDDまたはSSDとして実装される。イベントコンビネーション情報41の具体例は、後述する。
撮影機能部37は、後述する撮影装置42の機能を有する。かかる機能は、環境情報を取得する手段の1つとして用いられる。例えば、撮影機能部37は、スポットに配置された各表示装置20がそれぞれ識別情報29を表示した後に、そのスポットを撮影装置42によりパノラマ撮影した撮影画像を環境情報として取得する。なお、撮影装置42は、例えば、カメラである。
スポット環境情報取得部38は、撮影機能部37の機能と連携し、スポットを撮影した撮影画像を解析し、撮影画像の中の環境情報を取得する。
表示様式情報生成部39は、表示様式情報を生成する。例えば、表示様式情報生成部39は、スポット環境情報取得部38によって取得された環境情報を用いて、表示様式情報を生成する。すなわち、表示様式情報生成部39は、各表示装置20がある地点の360°コンテンツを表示する場合の表示装置20ごとの視点方向を含む表示様式情報を生成する。表示様式情報は、例えば、表示装置20を識別する識別情報と視点方向とを対応付けた情報である。一例として、識別情報としての「1」、視点方向としての「270°」が対応付けられる。識別情報としての「2」、視点方向としての「0°」が対応付けられる。識別情報としての「3」、視点方向としての「90°」が対応付けられる。
[表示様式情報生成の一例]
図5~図7は、表示様式情報生成の一例を示す図である。なお、1つのスポットにおける表示装置20に表示されている情報[1]~[11]は、各表示装置20の識別情報である。すなわち、各表示装置20の識別情報表示部25は、自表示装置20の識別情報を表示している。なお、撮影装置42をカメラとして説明する。
移動端末30のスポット環境情報取得部38は、スポットにおいて撮影されたパノラマ写真を解析し、環境情報を取得する。例えば、スポット環境情報取得部38は、パノラマ写真から、例えば、表示装置20が表示している識別情報、表示装置20の表示順、表示装置20までの被写体距離を含む環境情報を取得する。
そして、移動端末30の表示様式情報生成部39は、スポット環境情報取得部38によって取得された環境情報を用いて、表示様式情報を生成する。すなわち、表示様式情報生成部39は、スポットに配置された各表示装置について、表示装置20が表示する場合に用いられる表示様式を推測する。
図5に示すように、パノラマ写真データには、表示装置20a、20b、20cが表示されている。表示装置20aおよび表示装置20cは、カメラの視点からの距離が短い場合である。表示装置20aには、識別情報として「1」が表示されている。表示装置20bには、識別情報として「2」が表示されている。表示装置20cには、識別情報として「3」が表示されている。ここで、パノラマ写真データの一番左側に位置する表示装置20aを0°とする。
このような状況の下、表示様式情報生成部39は、パノラマ写真の真ん中に位置する表示装置20bについて、90°に位置することや、表示装置20bの向きや設置台数などの配置パターンより、視点方向(Point of View)を0°に設定する。また、表示様式情報生成部39は、パノラマ写真の右側に位置する表示装置20cについて、180°に位置することや、表示装置20cの向きや設置台数などの配置パターンより、視点方向を90°に設定する。また、表示様式情報生成部39は、パノラマ写真の左側に位置する表示装置20aについて、0°に位置することや、表示装置20aの向きや設置台数などの配置パターンより、視点方向を270°に設定する。すなわち、表示様式情報生成部39は、このスポットにおける表示様式情報を以下のように生成する。表示装置数は、3台である。識別情報「1」に対応するPoV(視点方向)は、270°である。識別情報「2」に対応するPoV(視点方向)は、0°である。識別情報「3」に対応するPoV(視点方向)は、90°である。傾斜は、0°である。ズームレベルは、1倍である。なお、各表示装置までの距離やズームは、カメラの視点からの被写体距離によって推測することができる。
図6に示すように、パノラマ写真データには、表示装置20d、20e、20f、20g、20hが表示されている。表示装置20dには、識別情報として「4」が表示されている。表示装置20eには、識別情報として「5」が表示されている。表示装置20fには、識別情報として「6」が表示されている。表示装置20gには、識別情報として「7」が表示されている。表示装置20hには、識別情報として「8」が表示されている。ここで、パノラマ写真データの一番左側に位置する表示装置20dを0°とする。
このような状況の下、表示様式情報生成部39は、パノラマ写真の真ん中に位置する表示装置20fについて、90°に位置することや、表示装置20fの向きや設置台数などの配置パターンより、視点方向を0°に設定する。また、表示様式情報生成部39は、表示装置20fの右側に位置する表示装置20gについて、135°に位置することや、表示装置20gの向きや設置台数などの配置パターンより、視点方向を45°に設定する。また、表示様式情報生成部39は、表示装置20gの右側に位置する表示装置20hについて、180°に位置することや、表示装置20gの向きや設置台数などの配置パターンより、視点方向を90°に設定する。また、表示様式情報生成部39は、表示装置20fの左側に位置する表示装置20eについて、90°に位置することや、表示装置20eの向きや設置台数などの配置パターンより、視点方向を315°に設定する。また、表示様式情報生成部39は、表示装置20eの左側に位置する表示装置20dについて、0°に位置することや、表示装置20dの向きや設置台数などの配置パターンより、視点方向を270°に設定する。すなわち、表示様式情報生成部39は、このスポットにおける表示様式情報を以下のように生成する。表示装置数は、5台である。識別情報「4」に対応するPoVは、270°である。識別情報「5」に対応するPoV(視点方向)は、315°である。識別情報「6」に対応するPoVは、0°である。識別情報「7」に対応するPoVは、45°である。識別情報「8」に対応するPoVは、90°である。傾斜は、0°である。ズームレベルは、2倍である。なお、各表示装置までの距離やズームは、カメラの視点からの被写体距離によって推測することができる。
図7に示すように、パノラマ写真データには、表示装置20i、20j、20kが表示されている。表示装置20iおよび表示装置20kは、カメラの視点からの距離が長い場合である。表示装置20iには、識別情報として「9」が表示されている。表示装置20jには、識別情報として「10」が表示されている。表示装置20kには、識別情報として「11」が表示されている。ここで、パノラマ写真データの一番左側に位置する表示装置20iを0°とする。
このような状況の下、表示様式情報生成部39は、パノラマ写真の真ん中に位置する表示装置20jについて、45°に位置することや、表示装置20jの向きや設置台数などの配置パターンより、視点方向を0°に設定する。また、表示様式情報生成部39は、表示装置20jの右側に位置する表示装置20kについて、90°に位置することや、表示装置20kの向きや設置台数などの配置パターンより、視点方向を45°に設定する。また、表示様式情報生成部39は、表示装置20jの左側に位置する表示装置20iについて、0°に位置することや、表示装置20iの向きや設置台数などの配置パターンより、視点方向を315°に設定する。すなわち、表示様式情報生成部39は、このスポットにおける表示様式情報を以下のように生成する。表示装置数は、3台である。識別情報「9」に対応するPoVは、315°である。識別情報「10」に対応するPoVは、0°である。識別情報「11」に対応するPoVは、45°である。傾斜は、0°である。ズームレベルは、2倍である。なお、各表示装置までの距離やズームは、カメラの視点からの被写体距離によって推測することができる。
[被写体距離の推測方法の一例]
ここで、カメラの視点から各表示装置20までの被写体距離の推測方法を、図8を参照して説明する。図8は、被写体距離の推測方法の一例を示す図である。なお、被写体距離の推測方法は、例えば、カメラの撮影範囲の計算方法(http://keisan.casio.jp/exec/system/1378430392)を用いて推測される。
ここでは、撮影装置42をカメラとして説明する。図8に示すように、被写体距離は、カメラの仕様情報と、被写体の縦横の長さとから求められる。ここでいうカメラの仕様情報とは、焦点距離およびカメラ内のイメージセンサの縦や横のサイズが挙げられる。イメージセンサには、例えば、CCDやCMOSが挙げられる。パノラマ写真データの被写体の高さ(幅)がわかるので、被写体までの距離は、図8に示すように、焦点距離、イメージセンサの縦横サイズおよび被写体の高さ(幅)に基づいて求められる。すなわち、スポット環境情報取得部38は、スポットを撮影したパノラマ写真データを解析し、パノラマ写真データの中の環境情報に含まれる表示装置20までの被写体距離を推測する。また、スポット環境情報取得部38は、表示装置20に表示された識別情報のズームレベルも、推測された被写体距離から決定することができる。
[イベントコンビネーション情報の一例]
ここで、実施例1に係るイベントコンビネーション情報41の一例を、図9を参照して説明する。図9は、実施例1に係るイベントコンビネーション情報の一例を示す図である。図9に示すように、イベントコンビネーション情報41は、Aコンテンツサービスのイベント・ソース41bおよびBコンテンツサービスのイベント・ターゲット41cをアプリ・コンテンツサービス名41aに対応付けた情報である。
アプリ・コンテンツサービス名41aは、情報処理システム100によって実施されるコンテンツ表示サービスが提供するアプリ・コンテンツのサービス名である。アプリ・コンテンツサービス名41aには、図1で説明したコンテンツ表示のスポットサービスが挙げられる。なお、アプリ・コンテンツサービス名41aは、コンテンツ表示のスポットサービスに限定されず、コンテンツ表示のエリアサービスであっても良いし、コンテンツ表示の他のサービスであっても良い。
Aコンテンツサービスのイベント・ソース41bは、特定の操作に応じた、コンテンツサービスが備えるイベントである。Aコンテンツサービスのイベント・ソース41bは、実施例では、移動端末30によって利用されるコンテンツサービスのイベントである。Aコンテンツサービスのイベント・ソース41bは、イベント・ソースというものとする。Aコンテンツサービスは、例えば、地図コンテンツのサービスを示す。
Bコンテンツサービスのイベント・ターゲット41cは、特定の操作に応じた、コンテンツサービスが備えるイベントである。Bコンテンツサービスのイベント・ターゲット41cは、実施例では、表示装置20によって利用されるコンテンツサービスのイベントである。Bコンテンツサービスのイベント・ターゲット41cは、イベント・ターゲットというものとする。Bコンテンツサービスは、例えば、360°コンテンツのサービスを示す。
一例として、アプリ・コンテンツサービス名41aが「スポットサービスA」である場合に、Aコンテンツサービスのイベント・ソース41bを「地図コンテンツサービス」の「center_changed() drag_end()」とする。Bコンテンツサービスのイベント・ターゲット41cを「360°コンテンツサービス」の「set_position()」とする。この一例では、移動端末30の表示部31上で地図コンテンツサービスを利用して表示された地図がドラッグされたときのイベントをイベント・ソースとしている。表示装置20の表示部21上でドラッグされた位置(緯度経度)に対応する360°コンテンツを取得するイベントをイベント・ターゲットとしている。移動端末30では、イベントコンビネーション情報41を参照することで、イベントコンビネーション部36が、自装置の表示部31のイベント・ソースを受け取ると、当該イベント・ソースを、表示装置20の表示部21のイベント・ターゲットに変換する。この後、表示装置20では、イベントリスナー部27が、表示様式決定部26によって決定された視点方向および変換されたイベント・ターゲットを360°コンテンツのサービスに通知する。すると、イベントリスナー部27は、移動端末30の表示部31上でドラッグされた位置(緯度経度)に対応する360°コンテンツを表示することができる。
[表示様式情報生成までのシーケンス]
図10は、実施例1に係る表示様式情報生成までのシーケンスを示す図である。
図10に示すように、設置者がスポットごとに表示装置20の設置と起動を行う(ステップS11)。
表示装置20では、アプリ・コンテンツ取得管理部23が、スポットにチェックインし、サーバ10にアクセスし、アプリ・コンテンツの配信を依頼する(ステップS12)。チェックインは、無線アクセスポイントと接続がされた場合に行われる。
サーバ10では、アプリ・コンテンツ管理部12が、スポットに対応付けたアプリ・コンテンツを管理する(ステップS13)。そして、アプリ・コンテンツ配信サービス部14が、アプリ・コンテンツ管理部12によって管理されたアプリ・コンテンツであってスポットに対応するアプリ・コンテンツを表示装置20に配信する(ステップS14)。ここでは、360°コンテンツのサービスにアクセスするためのアプリ・コンテンツが表示装置20に配信される。
表示装置20では、アプリ・コンテンツ取得管理部23が、サーバ10から配信されたアプリ・コンテンツを取得し、管理する。ここでは、360°コンテンツのサービスにアクセスするためのアプリ・コンテンツが管理される。そして、識別情報表示部25が、記憶部に記憶された識別情報29を表示部21に表示する(ステップS15)。
続いて、移動端末30の利用者が、スポット内の表示装置20の全ての表示部21に各識別情報29が表示された後に、スポットにチェックインするための操作をする(ステップS16)。
すると、移動端末30では、アプリ・コンテンツ取得管理部33が、スポットにチェックインし、サーバ10にアクセスし、アプリ・コンテンツの配信を依頼する(ステップS17)。
サーバ10では、アプリ・コンテンツ管理部12が、スポットに対応付けたアプリ・コンテンツを管理する(ステップS18)。そして、アプリ・コンテンツ配信サービス部14が、アプリ・コンテンツ管理部12によって管理されたアプリ・コンテンツであってスポットに対応するアプリ・コンテンツを移動端末30に配信する(ステップS19)。ここでは、地図コンテンツのサービスにアクセスするためのアプリ・コンテンツが移動端末30に配信される。
移動端末30では、アプリ・コンテンツ取得管理部33が、サーバ10から配信されたアプリ・コンテンツを取得し、管理する。ここでは、地図コンテンツのサービスにアクセスするためのアプリ・コンテンツが管理される。そして、スポット環境情報取得部38が、撮影機能部37の機能と連携し、チェックインしたスポットを撮影した撮影画像を解析し、画像解析結果として環境情報を取得する(ステップS20)。そして、表示様式情報生成部39は、取得した環境情報を用いて表示様式情報を生成し、生成した表示様式情報をサーバ10に送信する(ステップS21)。すなわち、表示様式情報生成部39は、表示装置20の識別情報29と視点方向とを対応付けた情報を含む表示様式情報を生成して、生成した表示様式情報をサーバ10に送信する。そして、アプリ・コンテンツ実行環境部34は、管理されたアプリ・コンテンツを示す地図コンテンツを実行すべく、デジタルコンテンツサービスAにアクセスする(ステップS22)。
サーバ10では、表示様式情報管理部13が、移動端末30から送信された表示様式情報を管理する(ステップS23)。そして、チャネル通信サービス部17が、表示様式情報管理部13によって管理された表示様式情報を各表示装置20にブロードキャスト(放送)する(ステップS24)。
表示装置20では、表示様式決定部26が、サーバ10から放送された表示様式情報を用いて、自装置の識別情報29に対応する表示様式(例えば視点方向)を決定する(ステップS25)。そして、アプリ・コンテンツ実行環境部24は、表示様式を用いてアプリ・コンテンツを示す360°コンテンツを実行すべく、デジタルコンテンツサービスBにアクセスする(ステップS26)。
[利用開始のシーケンス]
図11は、実施例1に係る利用開始のシーケンスを示す図である。なお、図11では、1つのスポットに対して、サーバ10が、表示様式情報を管理し、各表示装置20が、自装置の表示様式を決定したものとする。
図11に示すように、移動端末30の利用者が、スポットにチェックインするための操作をする(ステップS31)。チェックインは、無線アクセスポイントと接続がされた場合に行われる。
すると、移動端末30では、アプリ・コンテンツ取得管理部33が、スポットにチェックインし、サーバ10にアクセスし、アプリ・コンテンツの配信を依頼する(ステップS32)。
サーバ10では、アプリ・コンテンツ管理部12が、スポットに対応付けたアプリ・コンテンツを管理する(ステップS33)。そして、アプリ・コンテンツ配信サービス部14が、アプリ・コンテンツ管理部12によって管理されたアプリ・コンテンツであってスポットに対応するアプリ・コンテンツを移動端末30に配信する(ステップS34)。ここでは、地図コンテンツのサービスにアクセスするためのアプリ・コンテンツが移動端末30に配信される。
移動端末30では、アプリ・コンテンツ取得管理部33が、サーバ10から配信されたアプリ・コンテンツを取得し、管理する。ここでは、地図コンテンツのサービスにアクセスするためのアプリ・コンテンツが管理される。そして、アプリ・コンテンツ実行環境部34は、管理されたアプリ・コンテンツを示す地図コンテンツを実行すべく、デジタルコンテンツサービスAにアクセスする(ステップS35)。
続いて、移動端末30の利用者が、端末画面(表示部31)から操作をする(ステップS36)。かかる操作は、例えば、スクロールやドラッグの操作である。
移動端末30では、イベントコンビネーション部36が、イベントコンビネーション情報41を参照し、表示部31の操作イベント(イベント・ソース)を、表示装置20の表示部21のイベント・ターゲットに変換する。そして、イベントコンビネーション部36は、変換後のイベント・ターゲットをチャネル通信クライアント部32に通知する。そして、チャネル通信クライアント部32は、通知されたイベント・ターゲットをサーバ10に送信する(ステップS37)。
サーバ10では、チャネル通信サービス部17は、移動端末30から送信されたイベント・ターゲットを受信し、受信したイベント・ターゲットを各表示装置20に放送する(ステップS38)。
表示装置20では、イベントリスナー部27が、受信したイベント・ターゲットを発火すべく、受信したイベント・ターゲットおよび自装置の表示様式をアプリ・コンテンツ実行環境部24に出力する(ステップS39)。そして、アプリ・コンテンツ実行環境部24が、自装置の表示様式に対応するイベント・ターゲットを実行すべく、デジタルコンテンツサービスBにアクセスする(ステップS40)。
続いて、移動端末30の利用者が、端末画面(表示部31)から次の操作を行う(ステップS41)。すると、ステップS32~ステップS40の各処理が実行される。
そして、移動端末30の利用者は、スポットからチェックアウトするか、コンテンツ表示サービスが終了するまで、端末画面(表示部31)からの操作を繰り返すことができる。チェックアウトは、無線アクセスポイントとの接続が切断された場合に行われる。
なお、移動端末30のイベントコンビネーション部36は、イベントコンビネーションとして、端末画面(表示部31)の操作イベント(イベント・ソース)を、表示装置20の表示部21のイベント・ターゲットに変換する場合を説明した。かかる場合には、表示装置20のイベントリスナー部27は、受信したイベント・ターゲットおよび自装置の表示様式をアプリ・コンテンツ実行環境部24に出力し、自装置の表示様式に対応するイベント・ターゲットを実行させる。かかる操作イベントの操作は、クリック操作やドラッグ操作を一例として説明したが、これに限定されない。操作イベントの操作は、利用者の体の動作によるものであっても良い。例えば、ドラッグ操作は、利用者が移動端末30を持つ手や足を振る動作により検知されても良い。
[表示画面の一例]
図12は、実施例1に係る各表示画面の一例を示す図である。符号G1で表わされる表示画面は、移動端末30の表示部31に表示された表示画面であってある地域周辺の地図コンテンツの表示画面である。符号G2,G3,G4で表わされた表示画面は、それぞれ表示装置20x,20y,20zの表示部21に表示された表示画面である。表示装置20xは、例えば、PoVとして315°の表示様式と決定したものとする。表示装置20yは、PoVとして0°の表示様式と決定したものとする。表示装置20zは、PoVとして45°の表示様式と決定したものとする。
このような状況の下、ある地域周辺の地図コンテンツを表示した移動端末30のユーザが、ある地点をスクロールし、ズームしたとする。すると、表示装置20xは、ある地点をスクロールおよびズームした結果を示すイベント・ソースから変換されたイベント・ターゲットおよびPoV315°を360°コンテンツのサービスに通知する。この結果、表示装置20xは、移動端末30でスクロールおよびズームされた、位置(緯度経度)に対応する360°コンテンツを表示画面G2に表示することができる。また、表示装置20yは、ある地点をスクロールおよびズームした結果を示すイベント・ソースから変換されたイベント・ターゲットおよびPoV0°を360°コンテンツのサービスに通知する。この結果、表示装置20yは、移動端末30でスクロールおよびズームされた、位置(緯度経度)に対応する360°コンテンツを表示画面G3に表示することができる。また、表示装置20zは、ある地点をスクロールおよびズームした結果を示すイベント・ソースから変換されたイベント・ターゲットおよびPoV45°を360°コンテンツのサービスに通知する。この結果、表示装置20zは、移動端末30でスクロールおよびズームされた、位置(緯度経度)に対応する360°コンテンツを表示画面G4に表示することができる。
このようにして、上記実施例1では、移動端末30は、複数の表示装置20をパノラマ撮影した撮影画像の情報を取得する。移動端末30は、取得された撮影画像の情報を用いて、各表示装置20がある地点のコンテンツ情報を表示する場合の表示装置20ごとの表示様式の一部である視点方向を含む表示様式情報を生成する。移動端末30は、生成された表示様式情報に基づいて複数の表示装置20にそれぞれ表示様式が異なる一連のコンテンツ情報を表示させるために、表示様式情報を送信する。かかる構成によれば、移動端末30は、360°コンテンツを複数の表示装置20に素早く適応させて表示させることができる。すなわち、複数の表示装置20の台数や各表示装置20の向きなどが展示開始の直前に決定されても、移動端末30は、最新の各表示装置20の台数や向きをパノラマ撮影した撮影画像の情報を用いて表示装置20ごとの視点方向を含む表示様式情報を生成する。この結果、移動端末30は、360°コンテンツを複数の表示装置20に素早く適応させて表示させることができる。
また、上記実施例1では、移動端末30は、移動端末30がアクセスするコンテンツサービスに対するイベントを、複数の表示装置20がアクセスするコンテンツサービスであって移動端末30がアクセスするコンテンツサービスと異なるコンテンツサービスによって用いられるイベントに変換する。移動端末30は、表示様式情報および変換されたイベントに基づいて複数の表示装置20にそれぞれ表示様式が異なる一連のコンテンツ情報を表示させるために、表示様式情報および変換されたイベント情報を送信する。かかる構成によれば、移動端末30で実施されるコンテンツサービスと、表示装置20で実施されるコンテンツサービスが異なる場合に、移動端末30は、自端末に対するイベントを表示装置20で用いられるイベントに変換する。この結果、移動端末30は、複数の表示装置20に表示様式が異なる一連のコンテンツ情報を視認させることができる。
ところで、実施例1に係る移動端末30は、例えば地図コンテンツのサービスにアクセスし、表示部31に地図コンテンツを表示すると説明した。しかしながら、移動端末30は、これに限定されず、表示部31に地図コンテンツを表示すると同時に、十字マーカーを画面の中心に表示しても良い。
そこで、実施例2に係る移動端末30は、表示部31に地図コンテンツを表示すると同時に、十字マーカーを画面の中心に表示する場合を説明する。
[実施例2に係る移動端末の構成]
図13は、実施例2に係る移動端末の構成を示す機能ブロック図である。なお、実施例1の図4に示す移動端末30と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、十字マーカー部51および額縁方向処理部52を追加した点である。なお、十字マーカー部51は、表示部の一例である。額縁方向処理部52は、算出部の一例である。
十字マーカー部51は、アプリ・コンテンツ実行環境部34によって表示部31に対しコンテンツが表示される際、表示部31の中心に十字マーカーを表示する。
額縁方向処理部52は、表示部31の額縁や角と各表示装置20とを対応付けた状態で、十字マーカーと表示部31の額縁や角との方向に対してコンテンツ回転の差分を算出する。そして、額縁方向処理部52は、算出したコンテンツ回転の差分情報をイベントコンビネーション部36に出力する。
この後、イベントコンビネーション部36は、額縁方向処理部52によって算出されたコンテンツ回転の差分情報を、変換した操作イベントとともに、チャネル通信クライアント部32を介してサーバ10に送信する。サーバ10では、チャネル通信サービス部17が、移動端末30から受信した操作イベントおよびコンテンツ回転の差分情報を各表示装置20に配信する。各表示装置20では、表示様式決定部26が、チャネル通信クライアント部22から操作イベントおよびコンテンツ回転の差分情報を受け取り、当該差分情報を含む操作イベントを自装置の表示様式にして、アプリ・コンテンツ実行環境部24に通知する。アプリ・コンテンツ実行環境部24は、自装置の表示様式の操作イベント情報を、表示されているコンテンツに対して実行中のアプリ・コンテンツにより駆動させる。
これにより、移動端末30は、ユーザが動いたり、向きを変えたりして各表示装置20に表示されている方向を見失いそうな場合であっても、その方向を額縁や角と各表示装置20との対応付けや十字マーカーから検知することが可能となる。
ところで、実施例1に係るサーバ10では、チャネル通信サービス部17が、移動端末30から送信された操作イベントを受信し、表示装置20に配信すると説明した。しかしながら、サーバ10は、移動端末30から送信された操作イベントを利用ログとして管理しても良い。
そこで、実施例3に係るサーバ10は、移動端末30から送信された操作イベントを利用ログとして管理する場合を説明する。
[実施例3に係るサーバの構成]
図14は、実施例3に係るサーバの構成を示す機能ブロック図である。なお、実施例1の図2に示すサーバ10と同一の構成については同一符号を付すことで、その重複する構成および動作の説明については省略する。実施例1と実施例3とが異なるところは、利用ログ管理部61を追加した点である。
利用ログ管理部61は、チャネル通信サービス部17によって受信された操作イベントを取得し、利用ログとして管理する。
これにより、サーバ10は、利用ログを、例えばインターネット上の既存のシステムやサービスに提供することができる。例えば、旅行会社のスタッフが、ユーザの独自の旅行パッケージを作成するにあたり、ユーザにこのコンテンツ表示サービスを利用して疑似体験してもらう。疑似体験してもらったユーザの情報が、利用ログに蓄積される。旅行会社は、この利用ログを利用することで、より良い旅行パッケージを作成することができる。また、旅行会社は、既存システムにおける実際に売り上げた旅行パッケージの情報と、利用ログの情報とを組み合わせて統計処理することで、コンテンツ表示サービスを利用した場合と、利用しない場合との売上効果を可視化できる。また、旅行会社は、人気のある旅行先、旅行先の効率的な訪問ルートなどの特徴を捉えることもでき、長期に渡るその特徴の変化を可視化できる。
[その他]
なお、上記実施例1-3では、図示した装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、イベントコンビネーション部36を、イベントを組み合わせる場合の処理部と、イベントを結合する場合の処理部と、変換する場合の処理部とに分散しても良い。また、撮影機能部37と撮影装置42とを統合しても良い。図示しない記憶部を移動端末30の外部装置として通信ネットワーク50経由で接続するようにしても良い。図示しない記憶部をサーバ10の外部装置として通信ネットワーク50経由で接続するようにしても良い。図示しない記憶部を表示装置20の外部装置として通信ネットワーク50経由で接続するようにしても良い。
図15は、実施例1,2,3に係る情報処理プログラムを実行するコンピュータのハードウェア構成を示す図である。図15に示すように、コンピュータ500は、操作部510と、ディスプレイ520と、通信部530と、CPU540と、ROM550と、HDD560と、RAM570とを有する。操作部510と、ディスプレイ520と、通信部530と、CPU540と、ROM550と、HDD560と、RAM570とは、バス580を介して接続される。なお、HDD560に代えて、SSDを用いても良い。
HDD560には、上記の実施例1,2,3で示した移動端末30のチャネル通信クライアント部32、アプリ・コンテンツ取得管理部33、アプリ・コンテンツ実行環境部34、イベントリスナー部35、イベントコンビネーション部36、撮影機能部37、スポット環境情報取得部38および表示様式情報生成部39と同様の機能を発揮する情報処理プログラム、あるいは、サーバ10のアプリ・コンテンツ管理部12、表示様式情報管理部13、アプリ・コンテンツ配信サービス部14、スポット情報管理部15、チャネル情報管理部16およびチャネル通信サービス部17と同様の機能を発揮する情報処理プログラム、あるいは表示装置20のチャネル通信クライアント部22、アプリ・コンテンツ取得管理部23、アプリ・コンテンツ実行環境部24、識別情報表示部25、表示様式決定部26およびイベントリスナー部27と同様の機能を発揮する情報処理プログラムが記憶される。また、HDD560には、必ずしも上記の実施例1,2,3で示した全てのデータが格納されずともよく、処理に用いるデータがHDD560に格納されれば良い。
このような環境の下、CPU540は、HDD560から情報処理プログラムを読み出した上でRAM570へロードする。この結果、情報処理プログラムは、情報処理プロセスとして機能する。この情報処理プロセスは、RAM570が有する記憶領域のうち情報処理プロセスに割り当てられた領域にHDD560から読み出した各種データをロードし、このロードした各種データを用いて各種の処理を実行する。たとえば、情報処理プロセスが実行する処理の一例として、図10または図11に示す処理などが含まれる。なお、CPU540では、必ずしも上記の実施例1,2,3で示した全ての処理部が動作せずともよく、実行対象とする処理に対応する処理部が仮想的に実現されれば良い。
なお、上記の情報処理プログラムは、必ずしも最初からHDD560またはROM550に記憶されておらずともかまわない。たとえば、コンピュータ500に挿入されるフレキシブルディスク、いわゆるFD、CD(Compact Disc)-ROM、DVD(Digital Versatile DiscまたはDigital Video Disc)、光磁気ディスク、IC(Integrated Circuit)カードなどの「可搬用の物理媒体」に情報処理プログラムを記憶させる。そして、コンピュータ500がこれらの可搬用の物理媒体から情報処理プログラムを取得して実行するようにしても良い。また、公衆回線、インターネット、LAN、WANなどを介してコンピュータ500に接続される他のコンピュータまたはサーバ装置などに情報処理プログラムを記憶させておき、コンピュータ500がこれらから情報処理プログラムを取得して実行するようにしても良い。
10 サーバ
11 コンテンツ表示サービス部
12 アプリ・コンテンツ管理部
13 表示様式情報管理部
14 アプリ・コンテンツ配信サービス部
15 スポット情報管理部
16 チャネル情報管理部
17 チャネル通信サービス部
18 OS
20 表示装置
21 表示部
22 チャネル通信クライアント部
23 アプリ・コンテンツ取得管理部
24 アプリ・コンテンツ実行環境部
25 識別情報表示部
26 表示様式決定部
27 イベントリスナー部
28 OS
29 識別情報
30 移動端末
31 表示部
32 チャネル通信クライアント部
33 アプリ・コンテンツ取得管理部
34 アプリ・コンテンツ実行環境部
35 イベントリスナー部
36 イベントコンビネーション部
37 撮影機能部
38 スポット環境情報取得部
39 表示様式情報生成部
40 OS
41 イベントコンビネーション情報
42 撮影装置
50 通信ネットワーク
100 情報処理システム
200 デジタルコンテンツサービス

Claims (6)

  1. 複数の表示装置をパノラマ撮影した撮影画像の情報を取得する取得部と、
    前記取得部によって取得された撮影画像の情報を用いて、各表示装置が地図コンテンツ情報のある地点の360°コンテンツ情報を表示する場合の表示装置ごとの表示様式の一部である撮影装置から前記地点の周辺を見る場合の視点方向を含む表示様式情報を生成する生成部と、
    前記生成部によって生成された表示様式情報に基づいて前記複数の表示装置にそれぞれ表示様式が異なる一連の360°コンテンツ情報を表示させるために、前記表示様式情報を送信する送信部と、
    を有することを特徴とする情報処理装置。
  2. 前記情報処理装置がアクセスする地図コンテンツサービスに対するイベントを、前記複数の表示装置がアクセスする360°コンテンツサービスによって用いられるイベントに変換する変換部を有し、
    前記送信部は、前記変換部によって変換されたイベントに基づいて前記複数の表示装置にそれぞれ表示様式が異なる一連の360°コンテンツ情報を表示させるために、前記表示様式情報および前記変換されたイベントを示すイベント情報を送信する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記情報処理装置がアクセスする地図コンテンツサービスの地図コンテンツ情報を表示する際に、前記地図コンテンツ情報を表示する画面の中心位置に十字マーカーを表示する表示部
    を有することを特徴とする請求項2に記載の情報処理装置。
  4. 前記情報処理装置の回転動作に応じ、前記画面の額縁の予め定められた一点と前記表示部によって表示された前記十字マーカーとの方向に対して前記画面に表示された地図コンテンツ情報の回転の差分を算出する算出部を有し、
    前記送信部は、前記算出部によって算出された差分情報を、前記表示様式情報および前記変換されたイベントを示すイベント情報とともに送信する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 情報処理装置と、
    複数の表示装置と、
    前記情報処理装置と前記複数の表示装置との通信を中継するサーバと、を有し、
    前記情報処理装置は、
    前記複数の表示装置をパノラマ撮影した撮影画像の情報を取得する取得部と、
    前記取得部によって取得された撮影画像の情報を用いて、各表示装置が地図コンテンツ情報のある地点の360°コンテンツ情報を表示する場合の表示装置ごとの表示様式の一部である撮影装置から前記地点の周辺を見る場合の視点方向を含む表示様式情報を生成する生成部と、
    前記生成部によって生成された表示様式情報を前記サーバに送信する送信部と、を有し、
    前記表示装置は、
    前記サーバから中継された表示様式情報に基づいて、自装置に対応する表示様式を決定する決定部と、
    前記決定部によって決定された表示様式に応じて360°コンテンツ情報を表示する表示部と、を有する
    ことを特徴とする情報処理システム。
  6. 情報処理装置と、複数の表示装置と、サーバとを有する情報処理システムの情報処理方法であって、
    前記情報処理装置は、
    前記複数の表示装置をパノラマ撮影した撮影画像の情報を取得し、
    取得した撮影画像の情報を用いて、各表示装置が地図コンテンツ情報のある地点の360°コンテンツ情報を表示する場合の表示装置ごとの表示様式の一部である撮影装置から前記地点の周辺を見る場合の視点方向を含む表示様式情報を生成し、
    生成した表示様式情報を前記サーバに送信し、
    前記サーバは、
    前記情報処理装置から送信された表示様式情報を前記複数の表示装置に配信し、
    前記表示装置は、
    前記サーバから配信された表示様式情報に基づいて、自装置に対応する表示様式を決定し、
    決定した表示様式に応じて360°コンテンツ情報を表示する
    各処理を実行することを特徴とする情報処理方法。
JP2017111900A 2017-06-06 2017-06-06 情報処理装置、情報処理システムおよび情報処理方法 Active JP7052225B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017111900A JP7052225B2 (ja) 2017-06-06 2017-06-06 情報処理装置、情報処理システムおよび情報処理方法
US15/995,967 US10599940B2 (en) 2017-06-06 2018-06-01 Information processing apparatus, information processing system, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017111900A JP7052225B2 (ja) 2017-06-06 2017-06-06 情報処理装置、情報処理システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JP2018205570A JP2018205570A (ja) 2018-12-27
JP7052225B2 true JP7052225B2 (ja) 2022-04-12

Family

ID=64458311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017111900A Active JP7052225B2 (ja) 2017-06-06 2017-06-06 情報処理装置、情報処理システムおよび情報処理方法

Country Status (2)

Country Link
US (1) US10599940B2 (ja)
JP (1) JP7052225B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111601043B (zh) * 2020-06-19 2022-04-01 杭州海康机器人技术有限公司 包裹拍摄方法和系统

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043767A (ja) 2003-07-24 2005-02-17 Makoto Tadamura 参加型ディスプレイシステム
JP2008164986A (ja) 2006-12-28 2008-07-17 Fuji Electric Holdings Co Ltd 映像表示システム
JP2008281718A (ja) 2007-05-09 2008-11-20 Sharp Corp 画像表示システム
JP2008281717A (ja) 2007-05-09 2008-11-20 Sharp Corp 画像表示システム
JP2009109671A (ja) 2007-10-29 2009-05-21 Sharp Corp 画像表示システム
JP2011059675A (ja) 2009-08-11 2011-03-24 Ricoh Co Ltd 映像出力装置、映像出力システム、映像出力方法およびプログラム
JP2013206317A (ja) 2012-03-29 2013-10-07 Fujitsu Ltd 外部表示プログラム及び外部表示のための装置
US20140193037A1 (en) 2013-01-08 2014-07-10 John Fleck Stitzinger Displaying an Image on Multiple Dynamically Located Displays
US20140293017A1 (en) 2013-03-29 2014-10-02 Panasonic Corporation Method of Automatically Forming One Three-Dimensional Space with Multiple Screens
JP2015059999A (ja) 2013-09-17 2015-03-30 日本電信電話株式会社 映像表示装置及び映像表示プログラム
WO2016072565A1 (ko) 2014-11-05 2016-05-12 엘지전자 주식회사 화상출력장치, 이동 단말기 및 그것들의 제어 방법
JP2016143215A (ja) 2015-02-02 2016-08-08 株式会社コロプラ 表示システム、表示方法及びプログラム
JP2016142991A (ja) 2015-02-04 2016-08-08 株式会社リコー 画像処理システム、情報処理装置、画像処理方法、及びプログラム
US20170075638A1 (en) 2015-09-16 2017-03-16 Intel Corporation Technologies for display calibration and adjustment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078549A (ja) 2002-08-19 2004-03-11 Sony Corp 模擬移動処理方法および模擬移動処理システム
JP4722688B2 (ja) 2005-12-07 2011-07-13 株式会社ナビタイムジャパン 情報配信システム、経路探索サーバおよび携帯端末装置
JP2007293803A (ja) 2006-03-31 2007-11-08 Mitsubishi Space Software Kk 仮想観光装置、仮想観光システム、仮想観光プログラム、位置情報出力装置、観光情報提供装置、仮想観光体験装置、位置情報出力プログラム、観光情報提供プログラム、仮想観光体験プログラム、位置情報出力方法、観光情報提供方法、仮想観光体験方法、近傍情報提供装置、近傍情報提供システム、近傍情報提供プログラムおよび近傍情報提供方法
US9807299B2 (en) * 2012-08-30 2017-10-31 Htc Corporation Image capture methods and systems with positioning and angling assistance
KR102328020B1 (ko) * 2015-04-03 2021-11-17 한국전자통신연구원 하나의 룩업 테이블을 이용한 파노라마 영상 출력 시스템 및 방법

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043767A (ja) 2003-07-24 2005-02-17 Makoto Tadamura 参加型ディスプレイシステム
JP2008164986A (ja) 2006-12-28 2008-07-17 Fuji Electric Holdings Co Ltd 映像表示システム
JP2008281718A (ja) 2007-05-09 2008-11-20 Sharp Corp 画像表示システム
JP2008281717A (ja) 2007-05-09 2008-11-20 Sharp Corp 画像表示システム
JP2009109671A (ja) 2007-10-29 2009-05-21 Sharp Corp 画像表示システム
JP2011059675A (ja) 2009-08-11 2011-03-24 Ricoh Co Ltd 映像出力装置、映像出力システム、映像出力方法およびプログラム
JP2013206317A (ja) 2012-03-29 2013-10-07 Fujitsu Ltd 外部表示プログラム及び外部表示のための装置
US20140193037A1 (en) 2013-01-08 2014-07-10 John Fleck Stitzinger Displaying an Image on Multiple Dynamically Located Displays
US20140293017A1 (en) 2013-03-29 2014-10-02 Panasonic Corporation Method of Automatically Forming One Three-Dimensional Space with Multiple Screens
JP2015059999A (ja) 2013-09-17 2015-03-30 日本電信電話株式会社 映像表示装置及び映像表示プログラム
WO2016072565A1 (ko) 2014-11-05 2016-05-12 엘지전자 주식회사 화상출력장치, 이동 단말기 및 그것들의 제어 방법
JP2016143215A (ja) 2015-02-02 2016-08-08 株式会社コロプラ 表示システム、表示方法及びプログラム
JP2016142991A (ja) 2015-02-04 2016-08-08 株式会社リコー 画像処理システム、情報処理装置、画像処理方法、及びプログラム
US20170075638A1 (en) 2015-09-16 2017-03-16 Intel Corporation Technologies for display calibration and adjustment

Also Published As

Publication number Publication date
US10599940B2 (en) 2020-03-24
US20180349723A1 (en) 2018-12-06
JP2018205570A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
US9665986B2 (en) Systems and methods for an augmented reality platform
JP4195991B2 (ja) 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP5669767B2 (ja) 情報提供装置
US20130318078A1 (en) System and Method for Producing Multi-Angle Views of an Object-of-Interest from Images in an Image Dataset
CN104885441B (zh) 图像处理装置和方法、以及程序
KR20120035036A (ko) 증강 현실을 이용한 영상 데이터 생성 방법 및 재생 방법, 그리고 이를 이용한 촬영 장치
CN113569825A (zh) 视频监控方法、装置、电子设备和计算机可读介质
KR101806957B1 (ko) 관심 지점의 자동 업데이트를 위한 방법 및 시스템
JP6301779B2 (ja) センサ制御装置、センサ制御方法およびセンサ制御プログラム
US11657574B2 (en) Systems and methods for providing an audio-guided virtual reality tour
JP2013239087A (ja) 情報処理システム及び移動体
JP7052225B2 (ja) 情報処理装置、情報処理システムおよび情報処理方法
JP2003202235A (ja) 配信装置及び表示装置及び配信方法及び情報配信・表示方式
US20160191773A1 (en) Distribution of location-based augmented reality captures
JP6149967B1 (ja) 動画配信サーバ、動画出力装置、動画配信システム、及び動画配信方法
KR102168110B1 (ko) 카메라 시스템
CN111145189B (zh) 图像处理方法、装置、电子设备和计算机可读存储介质
KR102314782B1 (ko) 3차원 증강현실 표시 방법
KR101857104B1 (ko) 놀이공간 영상 컨텐츠 서비스 시스템
CN112189346A (zh) 照相机系统
KR101293924B1 (ko) 촬영된 영상에 위치정보와 환경정보를 부가하는 촬영장치 및 방법
JP2006222901A (ja) 動画再生支援方法、動画再生支援プログラム、サーバ装置及びコンピュータシステム
KR101482240B1 (ko) 위치기반서비스를 이용한 사용자 타켓팅 광고 시스템의 운용방법
JP2021153275A (ja) 映像処理システム、映像処理方法、及び映像収集システム
KR20210055381A (ko) 스마트 디스플레이를 통해 증강 현실 컨텐츠를 제공하는 장치, 방법 및 컴퓨터 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7052225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150