JP6548203B2 - 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法 Download PDF

Info

Publication number
JP6548203B2
JP6548203B2 JP2013055316A JP2013055316A JP6548203B2 JP 6548203 B2 JP6548203 B2 JP 6548203B2 JP 2013055316 A JP2013055316 A JP 2013055316A JP 2013055316 A JP2013055316 A JP 2013055316A JP 6548203 B2 JP6548203 B2 JP 6548203B2
Authority
JP
Japan
Prior art keywords
information
panoramic video
information processing
condition
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013055316A
Other languages
English (en)
Other versions
JP2014183380A (ja
Inventor
鈴木 利明
利明 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2013055316A priority Critical patent/JP6548203B2/ja
Priority to US14/027,832 priority patent/US9094655B2/en
Priority to EP13184736.0A priority patent/EP2782333B1/en
Publication of JP2014183380A publication Critical patent/JP2014183380A/ja
Application granted granted Critical
Publication of JP6548203B2 publication Critical patent/JP6548203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process

Description

本発明は、パノラマ動画を表示装置に表示させる情報処理プログラム、情報処理装置、情報処理システム、パノラマ動画表示方法、および、制御データのデータ構造に関する。
従来、パノラマ画像を生成して表示装置に表示する技術がある(例えば、特許文献1参照)。
特開2004−187298号公報
従来においては、単にパノラマ画像を表示するだけであるため、パノラマ画像とともに種々の情報をユーザに提供することが望まれる。
それ故、本発明の目的は、パノラマ画像を再生する際により多くの情報をユーザに提示することが可能な情報処理プログラム、情報処理装置、情報処理システム、パノラマ動画表示方法、および、制御データのデータ構造を提供することである。
上記の課題を解決すべく、本発明は、以下の(1)〜(11)の構成を採用した。
(1)
本発明の他の一例は、パノラマ動画の一部の領域を表示装置に表示する情報処理装置のコンピュータにおいて実行される情報処理プログラムである。情報処理プログラムは、取得手段と、表示制御手段と、時間条件判定手段と、方向条件判定手段と、処理実行手段としてコンピュータを機能させる。
取得手段は、パノラマ動画について、当該パノラマ動画の再生時間軸上における時間に関する時間条件と、当該パノラマ動画のうちの表示される領域に対応する視線方向に関する方向条件とを含む制御データを取得する。表示制御手段は、パノラマ動画のうちで、所定の入力装置に対する第1の入力に応じて決定される視線方向に対応する視野範囲の画像を表示装置に表示させる。時間条件判定手段は、表示装置において再生中のパノラマ動画の再生時点について、制御データに含まれる時間条件が充足されるか否かを判定する。方向条件判定手段は、第1の入力に応じて決定される視線方向について、制御データに含まれる方向条件が充足されるか否かを判定する。処理実行手段は、時間条件および方向条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行する。
制御データは、第1の入力とは異なる第2の入力に関する追加条件をさらに含む。処理実行手段は、追加条件に基づいて、パノラマ動画の再生中におけるユーザによる第2の入力に応じてユーザに対する出力の形態が変化するように情報処理を実行する。
上記(1)の構成によれば、情報処理装置は、時間条件と方向条件とを含む制御データを取得し、時間条件および方向条件の判定結果に応じて、再生中のパノラマ動画とともに画像および/または音を出力することに関する所定の情報処理を実行する。これによって、パノラマ動画とともに付加的な情報をユーザに提示することができ、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。また、制御データを用いて時間条件および方向条件を設定することによって、情報を提示する条件やタイミングを容易に設定することができる。
(2)
時間条件は、再生中のパノラマ動画の再生時点が、時間条件において指定される期間内に含まれることであってもよい。
上記(2)の構成によれば、パノラマ動画の再生中における期間のうちで、時間条件において指定される期間内に情報が出力されるように制御することができる。
(3)
方向条件は、第1の入力に応じて決定される視線方向が、方向条件において指定される範囲内に含まれることであってもよい。
上記(3)の構成によれば、ユーザが操作する視線方向が、方向条件において指定される範囲内に含まれる場合に情報が出力されるように制御することができる。
(4)
方向条件において指定される範囲は、表示装置に表示されるパノラマ動画の視野範囲よりも小さくてもよい。処理実行手段は、再生中のパノラマ動画の再生時点が、時間条件において指定される期間内となる場合において、第1の入力に応じて決定される視線方向が、方向条件において指定される範囲内に含まれたことに応じて、所定の情報処理の実行を開始してもよい。
上記(4)の構成によれば、時間条件が充足される期間中において、方向条件が充足されたタイミングで情報処理が実行され、パノラマ動画とともに情報が出力される。すなわち、時間が到来すれば自動的に情報が提示されるのではなく、例えば、視線方向が対象の方向を向いたタイミングや、その対象が表示範囲に含まれたタイミングで情報の提示が開始される。したがって、上記(4)の構成によれば、ユーザにとって適切なタイミングで付加情報を出力することができる。
(5)
方向条件判定手段は、第1の入力に応じて決定される視線方向が、方向条件において指定される範囲内に含まれないことを方向条件としてもよい。
上記(5)の構成によれば、ユーザが操作する視線方向が、方向条件において指定される範囲内に含まれない場合に情報が出力されるように制御することができる。
(6)
方向条件判定手段は、視線方向によって決められる表示装置における表示範囲と、制御データに含まれる方向条件において指定される範囲とが重複するか否かによって、方向条件が充足されるか否かを判定してもよい。
上記(6)の構成によれば、ユーザが操作する視線方向によって決められる表示範囲と、方向条件において指定される範囲との関係に基づいて方向条件を判定することができる。これによれば、例えば、方向条件に対応する対象(例えば、コメントを付す対象)が表示範囲に含まれるか否かによって情報(例えばコメント)の出力を切り替える、といった制御が可能になる。
(7)
制御データは、時間条件と、方向条件と、当該時間条件および当該方向条件が充足された場合に実行すべき情報処理とを関連づけたデータであってもよい。
上記(7)の構成によれば、パノラマ動画の再生中において実行すべき情報処理とそれを実行する条件とに関する情報を1つの制御データとして提供できるので、当該情報の取り扱いが容易になる。
(8)
制御データは、時間条件が充足されかつ方向条件が充足された場合に情報処理を実行するか、それとも、時間条件が充足されかつ方向条件が充足されない場合に情報処理を実行するかを示す実行条件をさらに含んでもよい。
上記(8)の構成によれば、実行条件を用いることによって、方向条件において指定される(視線方向に関する)範囲を変更することができるので、方向条件の内容の設定あるいは変更を容易に行うことができる。
(9)
制御データは、所定の情報処理によって画像を表示する位置を指定する表示位置情報をさらに含んでもよい。処理実行手段は、制御データに含まれる表示位置情報によって指定される位置に画像を表示する情報処理を実行してもよい。
上記(9)の構成によれば、情報処理によって画像を表示する場合において、当該画像を表示する位置を、制御データを用いて容易に指定することができる。
(10)
処理実行手段は、時間条件および方向条件が充足されたことに応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行う処理を開始してもよい。
上記(10)の構成によれば、方向条件および時間条件が充足されたタイミングで情報を提示することができるので、適切なタイミングでユーザに情報を提示することができる。
(11)
取得手段は、表示装置において再生されるべきパノラマ動画について、時間条件を含み、かつ、方向条件を含まない追加制御データをさらに取得してもよい。時間条件判定手段は、再生中のパノラマ動画の再生時点と、追加制御データに含まれる時間条件をさらに判定してもよい。処理実行手段は、追加制御データに含まれる時間条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行してもよい。
上記(11)の構成によれば、追加制御データを用いることによって、ユーザが操作する視線方向とは独立して情報を出力することができる。つまり、制御データに加えて追加制御データを用いることによって、情報の出力制御をより多彩な方法で行うことができる。
なお、本発明の別の一例は、上記(1)〜(11)の情報処理プログラムを実行することによって実現される各手段と同等の手段を備える情報処理装置あるいは情報処理システムであってもよいし、上記(1)〜(11)において実行される情報提示方法であってもよい。また、本発明の別の一例は、上記制御データのデータ構造であってもよい。
本発明によれば、制御データを用いてパノラマ動画とともに情報を出力することができ、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。
本実施形態に係る情報処理システムの一例を示すブロック図 情報処理システムにおいて表示されるパノラマ動画(画像)の一例を示す図 端末装置の姿勢に応じて表示領域を決定する方法の一例を示す図 ユーザがコメントを入力する操作の一例を示す図 付加情報を入力するためのボタンが表示されたパノラマ動画の一例を示す図 付加情報の入力に応じて記憶される情報(「入力情報」と呼ぶ。)の一例を示す図 範囲情報に関する条件を判定する方法の一例を示す図 範囲情報に関する条件を判定する方法の他の一例を示す図 コメントの出力期間の一例を示す図 パノラマ動画とともに付加情報が表示される画像の一例を示す図 出力される付加情報の他の一例を示す図 オブジェクト情報の一例を示す図 パノラマ動画とともに付加情報が表示される画像の他の一例を示す図 パノラマ動画とともに付加情報が表示される画像の他の一例を示す図 パノラマ動画とともに付加情報が表示される画像の他の一例を示す図 表示範囲と付加情報の入力位置との位置関係の一例を示す図 ガイド情報の一例を示す図 他の表示装置において目標が設定される場合において各表示装置に表示される画像の一例を示す図 表示範囲が目標として設定される場合における各表示装置に表示される画像の一例を示す図 履歴情報の一例を示す図 履歴関連情報の画像の一例を示す図 履歴関連情報の画像の他の一例を示す図 履歴情報に基づく履歴関連情報の画像の他の一例を示す図 履歴情報に基づいて決定された表示範囲のパノラマ動画がモニタ4に表示される場合の一例を示す図 パノラマ動画とともに補助画像が表示される場合の一例を示す図 視線方向を表す画像の一例を示す図 範囲情報に基づく位置を表す画像がパノラマ画像とともに表示される場合の一例を示す図 パノラマ動画の再生終了後において表示される画像の一例を示す図 本実施形態において情報処理システムの記憶部に記憶されるデータの一例を示す図 本実施形態において情報処理装置のCPUが実行する第1モードの動画再生処理の流れの一例を示すフローチャート 本実施形態において情報処理装置のCPUが実行する第2モードの動画再生処理の流れの一例を示すフローチャート 本実施形態において情報処理装置のCPUが実行する第3モードの動画再生処理の流れの一例を示すフローチャート 本実施形態において情報処理装置のCPUが実行する第3モードの動画再生処理の流れの一例を示すフローチャート 制御データのデータ構造の一例を示す図 方向情報によって特定される視線方向および範囲の一例を示す図 第2の実施形態における情報処理の大まかな流れの一例を示すフローチャート 方向条件が充足されたタイミングと、情報処理が実行されるタイミングの関係の一例を示す図 方向条件が充足されたタイミングと、情報処理が実行されるタイミングの関係の一例を示す図 ガイド情報を出力するための制御データのデータ構造の一例を示す図 付加情報の表示形態が変化する前のパノラマ動画の一例を示す図 付加情報の表示形態が変化した後のパノラマ動画の一例を示す図 付加情報の出力形態を変化させるための制御データのデータ構造の一例を示す図 追加条件を含む制御データのデータ構造の一例を示す図 追加制御データのデータ構造の一例を示す図 第2の実施形態において情報処理装置3のCPU5が実行する動画再生処理の流れの一例を示すフローチャート
<第1の実施形態>
[1.情報処理システムの構成]
以下、第1の実施形態の一例に係る情報処理システム、情報処理装置、情報処理プログラム、および動画表示方法について説明する。図1は、第1の実施形態に係る情報処理システムの一例を示すブロック図である。図1において、情報処理システム1は、端末装置2、情報処理装置3、モニタ4、および操作装置7を備える。本実施形態における情報処理システム1は、画像(パノラマ画像)を生成して表示装置(端末装置2および/またはモニタ4)に表示するものである。
本情報処理システム1においては、端末装置2(および操作装置7)に対する入力に応じて情報処理装置3が情報処理(図30〜図33に示す動画再生処理)を実行し、実行の結果得られた画像が端末装置2および/またはモニタ4に表示される。このように、本実施形態においては、情報処理システム1は、入力機能、情報処理機能、および表示機能が複数の装置によって実現される構成である。なお、他の実施形態においては、情報処理システム1は、これらの機能を有する単一の情報処理装置(例えば携帯型あるいは可搬型の情報処理装置)で構成されてもよい。
端末装置2は、ユーザが把持可能な入力装置である。つまり、端末装置2は、可搬型の入力装置である。端末装置2は情報処理装置3と通信可能である。端末装置2は、端末装置2に対する操作を表す操作データを情報処理装置3へ送信する。また、本実施形態においては、端末装置2は表示部(LCD11)を備えており、端末装置2は表示装置でもある。情報処理装置3から画像が送信されてくる場合、端末装置2は表示部に当該画像を表示する。また、端末装置2は、スピーカを備える。情報処理装置3から音声が送信されてくる場合、端末装置2はスピーカから当該音声を出力する。
また、端末装置2は、入力部としてタッチパネル12を備える。タッチパネル12は、ハウジング10に設けられる所定の入力面(表示部の画面)に対して入力された位置を検出する位置検出部の一例である。さらに、端末装置2は、入力部として、スライドパッド、十字キー、およびボタン等の操作部13を備える。
また、端末装置2は入力部として加速度センサ14を備える。加速度センサ14は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)に関する加速度を検出する。また、端末装置2は入力部としてジャイロセンサ15を備える。ジャイロセンサ15は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)を軸とした回転に関する角速度を検出する。加速度センサ14およびジャイロセンサ15は、端末装置2の姿勢を算出するための情報(姿勢を算出あるいは推定可能な情報)を検出するセンサである。なお、他の実施形態においては、端末装置2の姿勢はどのような方法で算出されてもよい。例えば、上記センサ以外の他のセンサを用いて、あるいは、端末装置2を撮影可能なカメラを用いて端末装置2の姿勢が算出されてもよい。
情報処理装置3は、画像を生成する処理等、情報処理システム1において実行される情報処理を実行する。本実施形態においては、情報処理装置3は、CPU(制御部)5およびメモリ6を有し、CPU5がメモリ6を用いて所定の情報処理プログラムを実行することによって、情報処理装置3における各種機能(図30〜図33に示す情報処理)が実現される。なお、情報処理装置3は、上記の情報処理を実行することができればどのような構成であってもよい。本実施形態においては、情報処理装置3によって画像(パノラマ画像)が生成され、生成された画像は、表示装置である端末装置2および/またはモニタ4へ出力される。また、情報処理装置3は、パノラマ動画とともに出力すべき音声を生成してもよい。生成された音声は、端末装置2および/またはモニタ4へ出力される。
モニタ4は、生成された画像を表示する表示装置の一例である。モニタ4は情報処理装置3から送信されるデータを受信可能である。情報処理装置3において生成された画像がモニタ4へ送信されてくる場合、モニタ4は当該画像を表示する。また、モニタ4はスピーカを備えていてもよい。情報処理装置3において生成された音声がモニタ4へ送信されてくる場合、スピーカは当該音声を出力する。
操作装置7は、情報処理装置3と通信可能な任意の入力装置である。操作装置7は、ボタン(キー)および/またはスティック等の入力手段を有するものであってもよいし、加速度センサおよび/またはジャイロセンサ等、操作装置7の位置および/または姿勢を算出(推測)することが可能なセンサであってもよい。操作装置7は、自機に対する操作を表す操作データを情報処理装置3へ送信する。情報処理装置3は、操作装置7からの操作データに基づいて上記情報処理を実行してもよい。なお、他の実施形態においては、情報処理システム1は端末装置2とは異なる他の入力装置(操作装置7)を含まない構成であってもよい。
[2.パノラマ動画の再生]
次に、情報処理システム1において実行される、パノラマ動画を再生する処理について説明する。図2は、情報処理システム1において表示されるパノラマ動画(画像)の一例を示す図である。図2に示すように、本実施形態においては、端末装置2およびモニタ4にパノラマ画像が表示される。なお、他の実施形態においては、パノラマ画像は少なくとも1つの表示装置に表示されればよい。
ここで、パノラマ画像とは、表示装置に表示される画像の視野角よりも広い視野角の画像である。つまり、パノラマ画像は、基本的にはその一部領域の画像が表示装置に表示される(ただし、本実施形態のように複数の表示装置が用いられる場合には、一部の表示装置においてパノラマ画像の全体が表示されてもよい。)。パノラマ画像は、表示領域が変化することによって視線の方向が変化する画像であるとも言える。本実施形態においては、上下左右方向に関して全方向(360°)の視野角を有するパノラマ画像が用いられる(図3参照)。ただし、パノラマ画像には死角があってもよく、例えば視野角が180°程度であってもよい。また、本実施形態においては、パノラマ画像はカメラによって撮影された実画像(実写画像)であるが、その一部または全部が仮想画像(CG画像)であってもよい。
本実施形態においては、パノラマ画像が表示装置(端末装置2およびモニタ4)に逐次表示されることによって、パノラマ動画が再生される。すなわち、複数のパノラマ画像によってパノラマ動画が構成される。複数のパノラマ画像にはそれぞれフレーム番号が付されており、パノラマ画像がフレーム番号順に表示されることによって、パノラマ動画が再生される。本実施形態においては、時間経過に伴って視点が移動するパノラマ動画が再生される。すなわち、図2に示すように道路上から周囲を見たパノラマ画像が表示され、道路を進んでいく(視点が道路に沿って移動する)パノラマ動画が再生される。
図2に示すように、各表示装置(端末装置2およびモニタ4)には、パノラマ画像の一部の範囲が表示される。以下では、パノラマ画像のうちで表示装置に表示される範囲を「表示範囲」と呼ぶ。図2においては、モニタ4には、視線方向が視点の進行方向(正面方向)となる表示範囲のパノラマ画像が表示される。本実施形態においては、モニタ4における表示範囲は、基本的には予め定められた所定範囲に固定され、一定条件下で変更されることもある(詳細は後述する)。
一方、端末装置2における表示範囲は、端末装置2の姿勢に応じて変更される。例えば図2においては、端末装置2は正面方向(ユーザ(端末装置2)からモニタ4への方向)に対して右を向いた姿勢となっており、端末装置2には、上記進行方向に対して視線が右を向いた場合の表示範囲のパノラマ画像が表示されている。このように、情報処理システム1は、入力装置(端末装置2)に対する入力に基づいて、パノラマ動画のうちで表示装置に表示する表示範囲を決定する。これによれば、ユーザは、端末装置2に対する操作(姿勢を変化させる操作)によって視線方向(表示範囲)を自由に変化させてパノラマ動画を見ることができる。なお、他の実施形態においては、表示範囲はユーザの操作に応じて変化するように決定される任意の方法によって決定されてもよい。
図3は、端末装置2の姿勢に応じて表示領域を決定する方法の一例を示す図である。本実施形態においては、図3に示すように、仮想空間に立体モデル21を配置し、その立体モデル21の内側に仮想カメラ22を配置する。そして、仮想カメラ22から見た立体モデル21(立体モデル21の内側面)の画像を生成する際に、パノラマ画像をテクスチャとして立体モデルの内側面に描画することで、パノラマ画像が生成される。このとき、パノラマ画像のうち、仮想カメラ22の視野範囲(図3に示す斜線領域23)が表示範囲となる。なお、本実施形態においては立体モデル21は立方体であるとするが、立体モデル21の形状は任意であり、例えば球体または柱状(例えば円柱)の形状であってもよい。
図3において、端末装置2に表示すべき画像を生成するための仮想カメラ22は、仮想カメラ22の姿勢が端末装置2の姿勢に応じて制御される。これによって、端末装置2の姿勢に応じて表示範囲が変化する。なお、情報処理装置3は、表示範囲の位置に加えて、表示範囲の大きさ(ズームインまたはズームアウト)を端末装置2に対する操作に応じて変更するようにしてもよい。
一方、モニタ4に表示すべき画像を生成するための仮想カメラ(図示せず)は、その視線方向が基本的には所定の基準方向(ここでは、上述した進行方向。図3ではZ軸正方向)を向くように設定される。つまり、モニタ4の表示範囲(図3に示す斜線領域24)は、仮想カメラから基準方向への位置に設定される。これら各仮想カメラの位置は立体モデル21内の所定位置(本実施形態においては立体モデル21の中心位置)に固定される。
なお、本実施形態においては、モニタ4の視線方向(モニタ4に表示されるパノラマ動画の視線方向)と端末装置2の視線方向(端末装置2に表示されるパノラマ動画の視線方向)との関係が、モニタ4の向きと端末装置2の向きとの関係と概ね一致するように、仮想カメラ22の視線方向が制御される。具体的には、端末装置2がモニタ4の方を向く姿勢(基準姿勢とする)となる場合、仮想カメラ22の視線方向は、モニタ4のための仮想カメラと同じ方向(すなわち、所定の基準方向)となる。そして、端末装置2の姿勢が基準姿勢から変化した場合、その変化方向に応じた方向へ、変化量に応じた量だけ、仮想カメラ22の姿勢が変化する。これによれば、ユーザは、モニタ4によってある視線方向の風景を見ながら、端末装置2の向きを変化させることによって所望の視線方向の風景を見ることができる。また、端末装置2の姿勢の変化と仮想カメラ22の姿勢の変化とを一致させることによって、現実空間における端末装置2の向きと、仮想空間における仮想カメラ22の視線方向とが一致するので、ユーザは、パノラマ画像が表す空間をよりリアルに感じることができる。
[3.ユーザによるコメントの入力]
本実施形態においては、パノラマ動画の再生中において、ユーザはコメント(付加情報)を入力することができる(図4,図5参照)。また、入力されたコメントは、その後パノラマ動画が再生される際に、パノラマ動画とともに出力される(図10〜図13参照)。なお、付加情報(コメント)は、画像として表示されてもよいし、音声として出力されてもよい。これによって、ユーザは、パノラマ動画を単に見るだけでなく、自分や他のユーザが入力したコメントと共にパノラマ動画を視聴することができる。したがって、本実施形態によれば、情報処理システム1は、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。また、付加情報が提示されることによって、ユーザは、パノラマ動画のうちで自分が見た範囲を他のユーザに伝えたり、他のユーザが見た範囲を知ったりすることができる。以下、コメントの入力を受け付け、入力されたコメントを出力する方法の詳細を説明する。
本実施形態においては、上記コメントのように、パノラマ動画に付加される情報を「付加情報」と呼ぶ。本実施形態においては、ユーザによって入力される付加情報はコメント(メッセージ)である。ただし、付加情報の内容はどのようなものであってもよく、例えば、後述する評価情報(パノラマ動画中に登場するオブジェクトに対する評価を表す情報)、あるいは、ユーザ情報等であってもよい。
(3−1)付加情報の入力
図4および図5を参照して、ユーザが付加情報(コメント)を入力する方法を説明する。情報処理システム1は、パノラマ動画の再生中において、端末装置2に表示されているパノラマ動画に対するコメントの入力を受け付ける。図4は、ユーザがコメントを入力する操作の一例を示す図である。本実施形態においては、情報処理システム1は、パノラマ動画が表示される画面上(タッチパネル12上)に対する入力(タッチ入力)を受け付ける。図4においては、ユーザは、パノラマ動画が表示される画面に対して直接手書きでコメントを入力することができる。なお、付加情報(コメント)の具体的な入力方法はどのような方法であってもよく、他の実施形態においては、例えばキーボードやボタン等の操作部を用いて入力が行われてもよいし、端末装置2がマイクを備える場合には音声入力が行われてもよい。
例えば、付加情報の入力は、パノラマ動画上に表示されるボタンに対する入力によって行われてもよい。図5は、付加情報を入力するためのボタンが表示されたパノラマ動画の一例を示す図である。図5に示すように、パノラマ動画上に評価ボタン31が表示される場合、情報処理システム1は、付加情報の入力として、当該評価ボタン31に対する入力(例えば、評価ボタン31をタッチする入力)を受け付けるようにしてもよい。例えば、ユーザは、評価に応じた回数だけ評価ボタン31に対する入力を行うようにしてもよい。
また、付加情報を入力する際、情報処理システム1は、端末装置2のLCD11に表示されているパノラマ画像上における位置を指定する入力(位置指定入力)を受け付けてもよい。例えば、コメントの入力を行う前に、コメントの入力を行う位置をユーザにタッチさせるようにしてもよい。なお、詳細は後述するが、パノラマ動画とともに付加情報が表示される場合、上記位置指定入力による位置に関連づけられて付加情報が表示されてもよい。
なお、付加情報の入力を受け付ける間は少なくとも、情報処理システム1は、パノラマ動画の再生を一時停止してもよい。例えば、付加情報(コメント)の入力が開始されてから終了されるまでの間、パノラマ動画の再生が一時停止されてもよい。これは、コメントを入力中のユーザが動画の内容を見逃すことを防止したり、コメントを入力しやすくしたりするためである。なお、他の実施形態においては、付加情報の入力中においてもパノラマ動画の再生が継続されてもよい。
(3−2)付加情報の記憶
付加情報の入力が行われた場合、情報処理システム1は、付加情報と、付加情報を出力するために必要な情報とを記憶する。図6は、付加情報の入力に応じて記憶される情報(「入力情報」と呼ぶ。)の一例を示す図である。本実施形態においては、図6に示すように、付加情報と、入力範囲情報とを含む入力情報が記憶部に記憶される。この記憶部は、本実施形態においてはメモリ6とするが、情報処理システム1(情報処理装置3)のコンピュータがアクセス可能な記憶装置であればよい。
上記の入力範囲情報は、付加情報の入力が受け付けられた場合における表示範囲および/または当該表示範囲内の位置を特定可能な情報である。なお、以下では、表示範囲および/または当該表示範囲内の位置を特定可能な情報を「範囲情報」と呼ぶ。つまり、入力範囲情報は、付加情報の入力が受け付けられた場合における範囲情報である。また、以下では、付加情報の入力が受け付けられた場合における表示範囲を、「入力範囲」と呼び、付加情報の入力が受け付けられた場合における(表示範囲内の)位置を「入力位置」と呼ぶ。
入力範囲情報は、上記入力範囲および入力位置の少なくともいずれかを特定できればよい。本実施形態においては、入力位置を特定可能な情報が入力範囲情報として記憶される。上記入力位置は、例えば、上述した位置指定入力によって指定された位置であってもよいし、付加情報が入力された位置(手書きのコメントが入力された位置や、評価ボタン31の位置)であってもよいし、付加情報が入力された時点における表示範囲の所定位置(例えば中心位置)であってもよい。また、音声入力に関しては、例えば、ユーザの声をマイクによって検知された時点における表示範囲(または表示範囲の中心位置)を表す入力範囲情報が記憶されてもよい。
上記入力範囲および/または入力位置を示す入力範囲情報として、本実施形態においては、仮想カメラ22の姿勢(視線方向)を表すベクトル(図6参照)の情報が記憶される。例えば、仮想カメラ22の位置から立体モデル21上の上記入力位置への方向を表すベクトルによって入力位置を表すことができる。また、仮想カメラ22の位置から立体モデル21上の上記入力範囲の中心位置への方向を表すベクトルと、当該方向を軸とした回転に関する姿勢を表すベクトルとによって入力範囲を表すことができる。なお、他の実施形態においては、上記入力範囲情報は、上記ベクトルの情報に加えて、表示範囲の大きさを示す情報(ズーム情報)を含んでいてもよい。また、他の実施形態においては、上記入力範囲情報として、立体モデル21上の範囲または位置を示す情報が記憶されてもよい。
本実施形態においては、付加情報は、コメントの内容を示す情報である(図6参照)。具体的には、コメントの内容を示す文字情報が付加情報として記憶されてもよいし、タッチパネル12に対する手書き入力が受け付けられる場合には、入力されたタッチ位置の軌跡を示す情報が付加情報として記憶されてもよい。また、付加情報として記憶される情報は、コメントの内容に限らずどのような内容であってもよい。
また、図6に示すように、本実施形態においては、入力情報は入力時間情報をさらに含む。入力時間情報は、付加情報の入力が受け付けられた再生時点を特定可能な情報である。なお、再生時点とは、パノラマ動画における時間軸上の時点である。以下では、付加情報の入力が受け付けられた再生時点を「入力時点」と呼ぶ。本実施形態においては、入力時間情報は、入力時点で表示されたパノラマ画像のフレーム番号(図6では「第iフレーム」と記載している)の情報である。入力時間情報は、パノラマ動画における時間軸上の再生時点を特定可能な任意の情報であってもよい。例えば、入力時間情報は、パノラマ動画の再生が開始されてからの経過時間を示す情報であってもよい。また、本実施形態のようにパノラマ動画の視点が時間経過につれて所定空間内を移動する場合には、当該所定空間内における視点の位置を示す情報が入力時間情報として記憶されてもよい。なお、他の実施形態においては、入力情報は入力時間情報を含まなくてもよい。
また、図6に示すように、本実施形態においては、入力情報はユーザ情報をさらに含む。ユーザ情報は、付加情報を入力したユーザを特定可能な情報である。ユーザ情報の具体的な内容はどのような情報であってもよい。本実施形態においては、パノラマ動画の再生前にユーザの識別情報(例えばユーザの名前(ニックネーム))が予め登録され、登録された識別情報がユーザ情報として記憶される。なお、他の実施形態においては、入力情報はユーザ情報を含まなくてもよい。
(3−3)付加情報の出力
以上のようにして付加情報を含む入力情報が記憶された状態でパノラマ動画が再生される場合、情報処理システム1は、パノラマ動画とともに付加情報を出力する。本実施形態においては、情報処理システム1は、パノラマ動画とともに出力される付加情報を上記入力範囲情報に基づいて制御する。典型的には、パノラマ動画の再生中において、上記入力時点が到来し、かつ、上記入力位置が現在の表示範囲に含まれる場合、付加情報がパノラマ動画とともに表示される(図10等参照)。なお、例えば入力時点が到来していない場合、あるいは、入力位置が現在の表示範囲に含まれない場合(現在の視線方向が付加情報の入力時とは別の方向を向いている場合)には、付加情報は表示されない。以下、付加情報を出力する方法について説明する。
(3−3−1)付加情報の出力判別の方法
本実施形態においては、情報処理システム1は、付加情報を出力するか否かを上記入力時間情報および入力範囲情報を用いて判別する。具体的には、情報処理装置3は、(a)再生されているパノラマ動画のうちの表示範囲が、入力範囲情報により特定される表示範囲および/または位置に関する条件を満たすか否か、および、(b)再生されているパノラマ動画が、入力時間情報により特定される再生時点に関する条件を満たすタイミングとなるか否か、を判定する。
図7は、入力範囲情報に関する条件を判定する方法の一例を示す図である。上記(a)に関する判定として、情報処理装置3は、現在の表示範囲と、コメントの入力位置(入力範囲情報により特定される位置)とが重なるか否かを判定してもよい(図7参照)。例えば図7に示すように入力位置が現在の表示範囲内に含まれる場合、上記(a)における条件が満たされると判定される。これによって、コメントの入力位置が端末装置2に表示されているか否かを判断することができる。
また、図8は、入力範囲情報に関する条件を判定する方法の他の一例を示す図である。他の実施形態においては、上記(a)に関する判定として、情報処理装置3は、現在の表示範囲と、コメント入力時の表示範囲(入力時間情報により特定される表示範囲)とが重なるか否かを判定してもよい。例えば図8に示すように入力範囲が現在の表示範囲と少なくとも一部において重複する場合、上記(a)における条件が満たされると判定される。これによれば、上記入力範囲と現在の表示範囲とが少なくとも一部において重複するか否かを判断することができる。つまり、コメント入力時の表示範囲の少なくとも一部が現在表示されているか否かを判断することができる。
なお、図7および図8を用いて説明した上記の判定は、立体モデル21上の位置(または範囲)を比較することによって行われてもよいし、仮想カメラ22の姿勢を表すベクトルを比較することによって行われてもよい。
また、上記(b)に関する判定としては、例えば、現在のパノラマ動画の再生時点が、入力時間情報により特定される再生時点(入力時点)を含む所定の出力期間であるか否かを判定してもよい。図9は、コメントの出力期間の一例を示す図である。図9に示すように、上記出力期間は、例えば、コメントの入力時点(入力時間情報が示す再生時点)の所定時間前から、所定の出力時間が経過するまでの期間として設定されてもよい。なお、出力期間は、コメントの入力時点に基づいて設定されてもよいし、コメントを入力したユーザによって設定されてもよい。また、コメントが文字情報である場合には、出力期間は文字数に応じた長さに(例えば、文字数が多いほど長くなるように)設定されてもよい。
上記(a)および(b)の判定がともに肯定となる場合、情報処理システム1は、パノラマ動画とともに付加情報を出力すると判断する。本実施形態においては、コメント入力時点を含む出力期間において、現在の表示範囲が上記入力位置を含む場合に、コメント(付加情報)が出力される。
(3−3−2)付加情報の出力態様
図10は、パノラマ動画とともに付加情報が表示される画像の一例を示す図である。付加情報を出力すると情報処理システム1が判断した場合、図10に示すように、端末装置2にはパノラマ動画上にコメント画像32が表示される。このように、本実施形態においては、パノラマ動画中に登場するあるオブジェクト(ここではビル)に対してコメントが入力されると、その後においてパノラマ動画が再生される際には、当該オブジェクトにコメントが付された状態でパノラマ動画が表示される。
ここで、図10に示すように、コメント画像32は、パノラマ画像上における上記入力位置を指し示す。つまり、情報処理システム1は、現在の表示範囲に入力位置が含まれる場合、当該入力位置に関連づけて付加情報の画像を表示させる。これによれば、コメントが付された位置をユーザに対して明確に認識させることができる。例えば図10においては、ユーザは、コメントが付された対象となったビルがどれであるかを容易に把握することができる。なお、図11は、出力される付加情報の他の一例を示す図である。図11に示されるように、コメント画像32は入力位置に表示されてもよい。また例えば、コメントがタッチパネル12に対する手書き入力によって行われる場合には、手書きの文字が入力位置に(そのまま)表示されてもよい。なお、付加情報の画像は、入力位置に関連づけて表示されるが、必ずしも入力位置に表示されなくてもよい。例えば、入力位置にコメント画像32が表示されると、コメントを付した対象が見にくくなるおそれがある。そのため、コメント画像32は、(図10に示すように)入力位置から少しずれた位置に表示されてもよい。なお、本明細書において、「画像」とは、文字(テキスト情報)を表す画像を含む。
また、図10に示すように、本実施形態においては、コメント画像32とともに、コメントを入力したユーザの名前(Aさん)を表すユーザ画像33が表示される。このように、情報処理システム1は、付加情報とともに当該付加情報に対応するユーザ情報を出力する。なお、出力されるユーザ情報は、ユーザの名前であってもよいし、ユーザ毎に設定されるキャラクタ(例えばユーザを模したキャラクタ)であってもよいし、ユーザの似顔絵の画像等であってもよい。本実施形態によれば、付加情報を見たユーザは、付加情報の内容だけでなく、付加情報を入力したユーザがパノラマ動画のどこを見ていたかを知ることができる。ここで、パノラマ動画は、一画面内に収まらない領域を有する動画であり、端末装置2における表示範囲はユーザが自由に操作することができる。そのため、パノラマ動画を視聴した際の表示範囲の位置やその変化はユーザによって異なる。そのため、本実施形態のように、他のユーザがパノラマ動画のどこを見ていたかを知ることができることはユーザにとって興味深い情報である。なお、図10に示す付加情報の表示態様以外の他の表示態様(図11〜図13等)においても、付加情報とともにユーザ情報が表示されてもよい。
なお、他の実施形態においては、ユーザ情報は付加情報自体として表示されてもよい。例えば、上記入力位置にユーザ情報を表す画像(例えば、ユーザの似顔絵の画像)のみが表示されてもよい。これによれば、付加情報(ユーザ情報)を見たユーザに対して、付加情報を入力したユーザが入力位置を含む表示範囲を閲覧していたことを伝えることができる。
なお、本実施形態のようにパノラマ動画の視点が時間に応じて移動する場合、パノラマ動画に登場する各オブジェクトは、パノラマ画像上において視点の移動方向とは逆方向に移動する。したがって、上記の場合、情報処理システム1は、付加情報を、当該付加情報に対応するオブジェクトの移動に合わせて移動させて表示するようにしてもよい。なお、「付加情報に対応するオブジェクト」とは、入力時点において入力位置に表示されているオブジェクトであり、換言すれば、入力時点において、入力範囲情報によって特定される位置に配置されているオブジェクトである。具体的には、付加情報は、視点の移動方向とは逆方向へ時間に応じて移動するように表示されてもよい。例えば、視点の移動方向を前方向とする場合には、付加情報は前から後へ移動するように表示されてもよい。なお、視点の移動方向および移動速度がわかる場合、空間内に固定的に配置されるオブジェクト(ビル等)がパノラマ動画上で移動する方向および速度を特定することができ、視点の移動方向および移動速度に基づいて、付加情報を移動させるアルゴリズムを算出することができる。したがって、このアルゴリズムに従って付加情報を移動させることによって、オブジェクトの移動に合わせて付加情報を移動させて表示することができる。なお、付加情報はオブジェクトの位置と厳密に一致する必要はなく、オブジェクトのある程度近傍に表示されてもよい。
また、オブジェクトの移動に合わせて付加情報を移動させる方法としては、オブジェクトの(パノラマ画像上における)位置および/または範囲を表すオブジェクト情報をパノラマ画像とともに用意しておく方法が考えられる。図12は、オブジェクト情報の一例を示す図である。図12に示すように、パノラマ画像中にオブジェクト(図12ではビル)が登場する場合、このオブジェクトの範囲(例えば図12に示す点線領域34)を示すオブジェクト情報がパノラマ動画とともに記憶される。なお、情報処理システム1は、パノラマ動画を構成する複数のパノラマ画像毎に、登場する1以上のオブジェクトについてオブジェクト情報を当該パノラマ画像に関連づけて記憶しておく。コメントの入力を受け付ける際には、情報処理装置3は、コメントの入力位置がオブジェクトの範囲内であるか否かを、オブジェクト情報を用いて判定する。入力位置がオブジェクトの範囲内である場合、情報処理装置3は、当該オブジェクトを示す情報を上記入力範囲情報として記憶する。パノラマ動画を再生する際には、情報処理装置3は、再生中のパノラマ動画のうちの表示範囲に上記オブジェクトが含まれることを少なくとも条件として、当該オブジェクトの位置に関連づけてコメントの画像を表示させる。具体的には、コメントは、オブジェクト情報から特定される上記オブジェクトの位置(または範囲)に関連づけて表示される。これによって、オブジェクトの位置に合わせた正確な位置に付加情報を表示させることができる。また、上記オブジェクト情報を用いる方法によれば、(視点の移動にかかわらず)空間内を移動することによってパノラマ画像上において移動して見えるオブジェクトに対しても、当該オブジェクトに応じた位置に付加情報を表示させることができる。
なお、後述するようなマップの画像(図25参照)が用意され、マップ上の位置とパノラマ動画上での位置とを対応付けることが可能である場合、オブジェクト情報は、マップと関連付けて(マップ上における位置または範囲を表す情報として)記憶されていてもよい。このとき、情報処理装置3は、表示範囲に対応するマップ上の範囲を特定し、特定された範囲内に関連づけられているオブジェクト情報から、オブジェクトのパノラマ動画上における位置または範囲を特定してもよい。
また、オブジェクト情報を入力範囲情報として記憶する場合には、オブジェクト情報が表すオブジェクトがパノラマ動画中に登場する期間に付加情報を表示することも可能である。つまり、オブジェクト情報を入力範囲情報として記憶することによって、(入力時間情報を用いることなく)付加情報の出力期間を制御することもできる。
また、他の実施形態においては、付加情報は、端末装置2の画面上における所定位置に表示されてもよい。図13は、パノラマ動画とともに付加情報が表示される画像の他の一例を示す図である。図13に示すように、コメント画像32は、(コメントに対応するオブジェクトの位置にかかわらず)画面の所定領域(図13では下側の領域)に表示されてもよい。例えばコメントの入力位置が上記入力範囲情報として記憶されない場合には、オブジェクトに対応する位置にコメントを表示することが難しいので、画面上の所定位置にコメントを表示するようにしてもよい。つまり、情報処理システム1は、再生中のパノラマ動画のうちの表示範囲が、付加情報が受け付けられた場合における表示範囲と少なくとも一部が重複する場合、表示装置の画面における所定位置に付加情報を表示させてもよい。これによれば、付加情報を表示する位置を容易に特定することができる。さらに、図13に示すように、付加情報は、パノラマ動画が表示される領域とは異なる領域に表示されてもよい。これによれば、付加情報によってパノラマ動画が隠されることがないので、パノラマ動画を見やすく表示することができる。
(3−3−3)付加情報の出力内容
他の実施形態においては、付加情報として出力される内容は、ユーザが入力したコメントに限らず、ユーザの入力に基づく他の情報であってもよい。例えば上述した評価ボタン31を用いて評価情報の入力が行われる場合には、評価ボタン31に対する入力回数を表す評価情報を付加情報として記憶し、当該入力回数を表す画像が付加情報として出力されてもよい。図14は、パノラマ動画とともに付加情報が表示される画像の他の一例を示す図である。上記の場合、例えば図14に示すように、入力回数に応じた長さのバー35が付加情報として表示されてもよい。なお、バー35は、付加情報の入力位置(評価ボタン31の位置)に基づく位置(例えば近傍の位置)に表示される。
なお、情報処理システム1は、1つの付加情報に基づく情報を出力することに限らず、複数の付加情報に基づく情報を出力してもよい。例えば、図14に示す例において、バー35の長さは、複数の入力情報における各入力回数の和(すなわち、複数のユーザによる評価ボタン31の入力回数の合計)あるいは平均値を表すように設定されてもよい。このように、情報処理システム1は、付加情報が数値(ここでは、入力回数)を表す情報である場合、出力すべき複数の付加情報が表す各数値に基づいて得られる数値(ここでは、入力回数の和)を表す情報を出力してもよい。なお、上記「出力すべき複数の付加情報」は、出力内容を1つにまとめるべき同種の付加情報(例えば、評価ボタン31に関する付加情報)であることを条件としてもよい。これによれば、複数人のユーザ(あるいは複数回の視聴)に基づく統計情報をユーザに提供することができる。また、情報処理システム1は、複数の付加情報のうち、所定の条件を満たす付加情報の数を表す情報を出力してもよい。例えば、同種の付加情報の数を表す情報が出力されてもよい。
また、他の実施形態においては、情報処理システム1は、端末装置2の表示範囲の変化に応じて付加情報の出力態様が変化するように制御してもよい。図15は、パノラマ動画とともに付加情報が表示される画像の他の一例を示す図である。なお、図15においては図14に示す場合と同様、評価ボタン31に対する入力回数を付加情報として記憶するものとする。このとき、情報処理システム1は、入力回数に応じた長さとなり、かつ、現在の表示範囲と上記入力範囲との位置関係に応じた長さとなるバー36を表示する。すなわち、バー36は、入力回数が多いほど長く表示される。さらに、バー36は、評価ボタン31(評価ボタン31に対応するオブジェクト)が表示範囲の中央に近いほど長く表示される。なお、情報処理システム1は、上記位置関係を入力範囲情報に基づいて判断することができる。また、バー36は、現在の表示範囲にかかわらず常に端末装置2の画面上に表示される。そのため、バー36の長さは、表示範囲の移動に応じて変化することとなる。なお、バー36の長さは、評価ボタン31に加えて他の評価ボタンの入力回数をも考慮して決定されてもよい。すなわち、評価が高い(入力回数が多い)オブジェクトが表示範囲内に多く存在するほどバー36が長く表示されてもよい。これによれば、ユーザは、バー36を見ながら表示範囲を移動させることで、評価が高いオブジェクトを探すことができる。
以上のように、情報処理システム1は、再生中のパノラマ動画の表示範囲と、付加情報が受け付けられた場合における表示範囲との位置関係を入力範囲情報に基づいて判断し、当該位置関係に基づいて付加情報の出力態様(バーの長さ)を変更してもよい。これによれば、表示範囲に応じて変化する情報をユーザに提示することができ、ユーザは、この情報に基づいて表示範囲を操作することができる。
なお、他の実施形態においては、情報処理システム1は、付加情報を表す画像を表示させることとともに、あるいは、表示させることに代えて、付加情報を表す音声を出力してもよい。なお、上記音声は、端末装置2から出力されてもよいし、モニタ4が備えるスピーカから出力されてもよいし、両者から出力されてもよい。
(3−3−4)付加情報の出力先
本実施形態においては、上記付加情報は端末装置2に表示される。端末装置2は、表示範囲がユーザによって操作される表示装置である。したがって、ユーザは、端末装置2を操作して表示範囲を移動させる際に付加情報を認識することができるので、付加情報をより確実にユーザに認識させることができる。
なお、他の実施形態においては、付加情報は、端末装置2とは異なる表示装置(モニタ4)に表示されてもよい。例えば、情報処理システム1は、端末装置2に対する入力に基づいて決定される表示範囲のパノラマ動画を当該端末装置2に表示させるとともに、モニタ4に付加情報を表示させてもよい。これによれば、端末装置2に表示されるパノラマ動画を見やすく提示することができる。また、端末装置2を用いるユーザ以外にモニタ4を見ている他のユーザが存在する場合には、当該他のユーザに対しても付加情報を提示することができる。また、モニタ4における表示範囲内に付加情報の入力位置が含まれる場合、あるいは、モニタ4における表示範囲と付加情報の入力範囲とが少なくとも一部において重なる場合、付加情報はモニタ4に表示されてもよい。これによって、ユーザが付加情報を見る機会を増やすことができる。
また、他の実施形態においては、情報処理システム1は、パノラマ画像の全体をモニタ4に表示してもよいし、パノラマ画像が表す空間の画像(例えば、鳥瞰図やマップ)をモニタ4に表示してもよい。このとき、モニタ4に表示される画像とともに(当該画像に重ねて)付加情報を表示してもよい。
(3−4)他のユーザによる付加情報
情報処理システム1は、端末装置2に対する入力によって入力情報を記憶する他、情報処理システム1の外部の他の装置から入力情報を取得し、当該入力情報に含まれる付加情報をパノラマ動画とともに出力してもよい。例えば、情報処理装置3は、インターネット等のネットワークを介して外部の装置と通信可能であってもよく、このとき、当該外部の装置から入力情報を取得してもよい。なお、上記「外部の装置」は、例えば、情報処理システム1と同機能のシステムに含まれる情報処理装置であってもよいし、入力情報を記憶するサーバであってもよい。上記によれば、ユーザは、他のユーザ(例えば知人や有名人)が入力した付加情報(コメント)が付加されたパノラマ動画を見ることができる。また、ユーザは、他のユーザによる付加情報を見ることで、他のユーザがパノラマ動画のどこを見ていたかを知ることができる。
[4.ガイドの出力]
本実施形態においては、パノラマ動画の再生中において、付加情報(コメント)の他にガイド情報が出力される。ガイド情報は、パノラマ画像上における目標をガイドするための情報である。ここで、目標とは、パノラマ画像上において設定される位置および/または範囲である。例えば、上述の付加情報が表示される位置が目標として設定されてもよいし、他のユーザが指定した位置が目標として設定されてもよいし、後述する履歴情報から得られる表示範囲が目標として設定されてもよい。ガイド情報は、パノラマ画像上において目標が設定される場所をユーザに通知するための情報とも言える。
図16は、表示範囲と目標との位置関係の一例を示す図である。図16において、表示範囲は領域23であり、目標は領域23の外側にある。そのため、図16に示す状態では、目標の位置に対応する情報は出力されない。このとき、仮に目標となる位置が表示範囲のすぐ近くであったとしても、ユーザは目標の存在に気づかず、表示範囲を目標の方へ移動させない可能性がある。
そこで、本実施形態においては、情報処理システム1は、目標をユーザに知らせるべく、パノラマ動画の一部領域とともにガイド情報を出力する。図17は、ガイド情報の一例を示す図である。なお、図17に示すガイド情報は、表示範囲と目標との関係が図16に示す状態となる場合に表示されるものである。図17に示すように、本実施形態においては、右方向を示す矢印を表すガイド画像41がガイド情報として表示される。これによって、目標となる位置または範囲を表示範囲に含めるためには表示範囲をどちらに動かせばよいかをユーザに通知することができる。このように、パノラマ動画とともにガイド情報が出力される場合、ユーザにガイド情報を提示することによって、現在の表示範囲が目標を含んでいない場合であっても、目標の方へ表示範囲を移動させるようにユーザを誘導することができる。なお、ガイド情報は、画像として表示されてもよいし、音声として出力されてもよい。
(4−1)目標の設定
情報処理装置3は、パノラマ画像上における範囲および/または位置を目標に設定する。目標として設定される位置および/または範囲は、どのようなものであってもよい。例えば、目標は、ユーザに対して何らかの情報が提示される位置および/または範囲であってもよい。具体的には、付加情報がパノラマ動画上に表示される場合、情報処理装置3は、付加情報に対応する位置(および/または範囲)を目標に設定してもよい。このとき、ガイド情報によって、付加情報が表示される表示範囲となるようにユーザを誘導することができる。なお、図17に示す画像は、付加情報の一例であるコメントの位置が目標に設定された場合において表示される画像の例である。また、履歴情報から生成される履歴関連情報は付加情報となり得るものであり、付加情報である履歴関連情報に対応する位置が目標に設定されてもよい。なお、詳細は後述するが、履歴情報は、パノラマ画像の再生中におけるユーザによる操作、および/または、当該操作によって決定される情報を表す。
また、情報処理装置3は、端末装置2のユーザとは別の他のユーザによって指定された位置(または範囲)を目標に設定してもよい。すなわち、情報処理装置3は、表示範囲を操作するための入力装置(端末装置2)とは異なる他の入力装置(操作装置7)に対する入力によって指定された範囲または位置を目標に設定してもよい。例えば、端末装置2の表示装置(LCD11)とは異なる他の表示装置(モニタ4)にパノラマ動画が表示される場合、情報処理装置3は、上記他の入力装置に対する入力に基づいて、当該他の表示装置に表示されるパノラマ動画上における位置(および/または範囲)を指定するようにしてもよい。このとき、指定された位置(および/または範囲)が目標に設定される。
図18は、他の表示装置において目標が設定される場合において各表示装置に表示される画像の一例を示す図である。図18において、モニタ4には、パノラマ動画とともにカーソル43が表示される。カーソル43は、操作装置7によって操作される。操作装置7を用いる他のユーザは、カーソル43を所望の位置に移動して、所定の操作(例えば、操作装置7のボタンを押下する操作)を行う。情報処理装置3は、上記所定の操作が行われた時点におけるパノラマ画像上の位置を目標に設定する。なお、本実施形態においてはカーソル43を用いて目標を設定する操作を例として説明するが、目標を設定するための操作方法はどのようなものであってもよい。また、図18では、目標の位置には付加情報を表す画像(「注目!」を表す画像)44が表示されるが、当該画像が表示されなくてもよい。目標が設定された場合、情報処理装置3は、目標に対応するガイド情報を端末装置2において出力(表示)する。例えば図18においては、端末装置2における表示範囲に対して左方向に目標が設定されるので、端末装置2においては、左方向を示す矢印を表すガイド画像45がガイド情報として表示される。
上記のように、上記他の入力装置に対する入力によって目標を設定することができる場合には、端末装置2を用いるユーザとは異なる他のユーザが目標を設定することができる。例えば、他のユーザが「おすすめの位置」を目標として他の入力装置を用いて入力することによって、端末装置2のユーザに対して「おすすめの位置」を知らせることも可能である。
また、上記他の表示装置に表示されるパノラマ動画上における位置(および/または範囲)を目標として指定することができる場合には、ある表示装置の画面上において指定された目標に対するガイド情報を別の表示装置において出力することができる。したがって、目標を設定するユーザは、他のユーザが見ている表示範囲外の場所に目標を容易に設定することができる。なお、他の実施形態においては、情報処理装置3は、端末装置2に対する入力に基づいて目標となる位置(および/または範囲)を設定し、設定された目標に対応するガイド情報をモニタ4に表示するようにしてもよい。これによっても、上記と同様の効果を奏することができる。
また、目標として設定される対象はパノラマ画像上における位置に限らず、範囲であってもよい。例えば、情報処理装置3は、パノラマ動画が別に再生される場合における表示範囲を目標に設定してもよい。ここで、「パノラマ動画が別に再生される場合」とは、ユーザの操作に従って表示範囲が決められる再生(本実施形態においては、端末装置2における再生)とは別にパノラマ動画が再生される場合である。例えば、過去にパノラマ動画が再生された場合は、「パノラマ動画が別に再生された場合」と言える。また、ユーザの操作に従って表示範囲が決められる表示装置(例えば端末装置2)とは別の表示装置(例えばモニタ4)においてパノラマ動画が再生される場合は、「パノラマ動画が別に再生された場合」と言える。上記のように、パノラマ動画が別に再生される場合、その場合における表示範囲を目標として設定し、当該表示範囲に対応するガイド情報が出力されてもよい。
図19は、表示範囲が目標として設定される場合における各表示装置に表示される画像の一例を示す図である。図19においては、モニタ4には仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画が表示され、端末装置2には視線方向が正面方向よりも右方向を向くときの表示範囲のパノラマ動画が表示される。そのため、端末装置2においては、端末装置2における表示範囲を基準にしてモニタ4の表示範囲への向きである左方向を示す矢印を表すガイド画像47がガイド情報として表示される。また、モニタ4においては、モニタ4における表示範囲を基準としたときの端末装置2の表示範囲への向きである右方向を示す矢印を表すガイド画像46がガイド情報として表示される。このように、情報処理装置3は、ある表示装置とは異なる他の表示装置にパノラマ動画が表示される場合、当該他の表示装置において表示される表示範囲を目標に設定してもよい。なお、図19においては、2つの表示装置の両方において、他の表示装置における表示範囲に対応するガイド情報が出力されるが、いずれか一方の表示装置においてのみ当該ガイド情報が出力されてもよい。
また、情報処理装置3は、過去にパノラマ動画が再生された場合における表示範囲を目標として設定してもよい。例えば、過去にパノラマ動画が再生された場合における表示範囲は、後述する履歴情報に基づいて特定することができる。情報処理装置3は、履歴情報に基づいて特定される表示範囲を目標として設定してもよい。すなわち、情報処理装置3は、現在の表示範囲を基準として、過去にパノラマ動画が再生された場合における表示範囲を向く方向を表すガイド情報をパノラマ動画とともに出力してもよい(図21参照)。なお、後述する"(表示範囲の方向を表す履歴関連情報)"において説明する履歴関連情報は、ガイド情報の1つである。
以上のように、パノラマ動画が別に再生される場合における表示範囲が目標に設定される場合には、他のユーザが見ていた(あるいは見ている)表示範囲をユーザに通知することができ、その表示範囲の方へ自分が見ている表示範囲を向けるように誘導することができる。
(4−2)目標情報の記憶
上記目標が設定される場合、情報処理装置3は、設定された目標を表す目標情報を記憶する。本実施形態においては、目標情報は、目標位置情報と、目標期間情報とを含む。目標位置情報は、目標として設定された位置および/または範囲を特定可能な情報である。目標として設定された位置および/または範囲は、上述の範囲情報(入力範囲情報)と同様に表すことができ、例えば、仮想カメラ22の姿勢(視線方向)を表すベクトルの情報によって表されてもよいし、立体モデル21上の範囲および/または位置として表されてもよい。
また、目標期間情報は、目標が設定される期間を特定可能な情報である。目標期間情報は、例えば上記期間の開始時点と終了時点とを表すものであってもよいし、目標が設定された時点(当該時点から上記期間を設定可能である場合)を表すものであってもよい。目標が設定される期間は、上述の入力時間情報と同様に表すことができ、例えばパノラマ画像のフレーム番号によって表されてもよい。
なお、設定される目標が上記付加情報に対応する場合(付加情報の位置に目標が設定される場合)、情報処理装置3は、付加情報に対応する入力情報に基づいて上記目標情報を設定してもよい。すなわち、目標位置情報は、入力情報に含まれる入力範囲情報に基づいて設定されてもよい。また、目標期間情報は、入力情報に含まれる入力時間情報に基づいて設定されてもよい。さらに、入力範囲情報がそのまま目標位置情報として用いられてもよいし、入力時間情報がそのまま目標期間情報として用いられてもよい。このとき、情報処理装置3は、上記入力情報とは別に目標情報を別途記憶しなくてもよい(入力情報を記憶することで、目標情報を記憶したとみなすことができる)。
(4−3)ガイド情報の出力判別の方法
本実施形態においては、ガイド情報を出力するタイミングは、当該ガイド情報に対応する目標が設定される期間に基づいて決定される。上記タイミングの具体的な決定方法はどのようなものであってもよいが、本実施形態においては、情報処理システム1は、上記期間においてガイド情報を表示する。なお、ガイド情報の表示は、上記期間の所定時間前から開始され、当該期間が終了するまで行われてもよい。
また、本実施形態において、目標が表示範囲内に位置する場合には、目標に対応するガイド情報は出力されない。例えば、現在の表示範囲内に付加情報が表示される場合、当該付加情報に対応するガイド情報は表示されない。これによって、不要なガイド情報を表示することなく、パノラマ動画および付加情報を見やすく表示することができる。
また、パノラマ動画中において複数の目標が設定される場合、情報処理システム1は、所定の条件を満たす目標についてガイド情報を出力するようにしてもよい。上記所定の条件は、例えば、特定のユーザが設定した目標(例えば、特定のユーザが入力した付加情報に対応する目標)であること、特定の種類の目標(例えば、コメントの付加情報に対応する目標)であること、および、現在の表示範囲を基準として所定の範囲内において設定される目標であること等である。これによれば、条件を満たす目標について(のみ)ガイド情報が出力されるので、出力されるガイド情報の数を減少し、パノラマ動画を見やすく表示することができる。なお、上記所定の条件は、例えばユーザによって指定されてもよい。
また、本実施形態においては、ガイド情報は、現在の表示範囲を基準として目標(目標に設定される範囲および/または位置)への向きを表す(図17参照)。情報処理装置3は、現在の表示範囲と、目標に設定される範囲および/または位置とに基づいて上記向きを決定する。例えば、上記向きは、仮想カメラ22の視線方向を表すベクトルを用いて算出することができる。より具体的には、上記向きは、現在の表示範囲の中心位置を表すベクトルを基準とした、上記目標に設定される位置(または、目標に設定される範囲の中心位置)を表すベクトルへの向きとして算出することができる。
(4−4)ガイド情報の出力態様
ガイド情報は、表示範囲と目標との関係を表す画像および/または音声である。本実施形態においては、上記のように、表示範囲を基準として目標への向きを表すガイド情報が出力される。本実施形態においては、ガイド情報は、図17に示すような矢印を表すガイド画像41であるが、ガイド情報は、ユーザに対して上記向きを通知することが可能な任意の出力態様で出力されてもよい。例えば他の実施形態においては、情報処理システム1は、上記向きを表す画像とともに(または画像に代えて)、当該向きを表す音声を出力してもよい。なお、上記音声は、端末装置2および/またはモニタ4から出力される。また、後述するようなマップの画像(図25参照)によって、表示範囲を基準として目標への向きをユーザに推測させることも可能である。本願のガイド画像によれば、表示範囲に対する目標の向きをより直感的にわかりやすく提示することができる。
また、本実施形態においては、情報処理装置3は、ガイド情報とともに、ユーザ情報を出力してもよい。ここで出力されるユーザ情報は、ガイド情報に対応する付加情報を入力したユーザを表す。例えば、図17においては、コメントを入力したユーザの名前(Aさん)を表すユーザ画像42がガイド画像41とともに表示される。これによれば、ユーザは、コメントを入力したユーザが誰であるかによってそのコメントを見るかどうか(すなわち、そのコメントの方へ表示範囲を移動させるかどうか)を判断することができる。
また、情報処理装置3は、ガイド情報とともに、目標の種類を表す情報を出力してもよい。例えば図17においては、ガイド画像41とともに、目標の種類を表す画像(「Aさんのコメント」を表す画像)42が表示される。目標の種類とは、例えば、目標の位置および/または範囲が表示範囲に含まれる場合に出力される情報の種類である。具体的には、目標の種類を表す情報は、「コメント」あるいは「評価情報」といった、出力される内容に関する種類であってもよいし、「Aさん」あるいは「Bさん」といった、情報の入力者の種類であってもよい。これによって、どのような情報が目標として設定されているかをユーザに通知することができる。ユーザは、目標へと実際に表示範囲を動かす前に、目標の場所で出力される情報の種類を知ることができる。
なお、パノラマ画像上において付加情報の位置が移動する場合、付加情報に対応する目標も付加情報の移動に応じて移動される。このとき、情報処理システム1は、ガイド情報が表す向きを目標(付加情報)の移動に応じて変化させる。すなわち、情報処理システム1は、ガイド情報を出力する間、その時点での表示範囲と、目標との位置関係を繰り返し算出し、ガイド情報が表す向きを当該位置関係に基づいて繰り返し算出してもよい。これによれば、目標が移動する場合であっても、移動に応じた正確な向きを表すガイド情報を出力することができる。
(4−5)ガイド情報の出力先
本実施形態においては、ガイド情報は、付加情報が表示される表示装置(端末装置2)に表示される(図17、図18参照)。したがって、ユーザは、端末装置2を操作して表示範囲を移動させる際にガイド情報を認識することができるので、ユーザにガイド情報をより確実に認識させることができる。なお、他の実施形態においては、ガイド情報は、付加情報が表示される表示装置とは別の表示装置(モニタ4)に表示されてもよい。これによれば、端末装置2に表示されるパノラマ動画を見やすく提示することができる。また、他の実施形態においては、2つの表示装置の両方にガイド情報が表示されてもよい。
(4−6)ガイド情報に対応する付加情報の内容
なお、付加情報に対応して目標が設定される場合、ガイド情報に対応する付加情報の内容は、ユーザが入力した付加情報に限らない。ガイド情報に対応する付加情報は、パノラマ動画の再生中における表示範囲および再生時点に関する条件が満たされる場合に、パノラマ動画とともに出力される情報であればよい。つまり、上記付加情報は、パノラマ動画が所定の再生時点となり、かつ、表示範囲が所定の範囲を含む場合にパノラマ動画とともに出力されるものであればよい。例えば、上記付加情報は、上記(3−4)で述べたような、外部の装置から取得される情報であってもよいし、パノラマ動画に予め登録されている情報であってもよい。また、後述する履歴関連情報は付加情報の一種であり、履歴関連情報に対してガイド情報が設定されてもよい。
[5.他のパノラマ動画再生を反映する出力]
本実施形態においては、情報処理システム1は、上述した「パノラマ動画が別に再生される場合」における再生内容を反映してパノラマ動画を出力することが可能である。なお、再生内容とは、パノラマ動画の表示範囲、および、表示範囲内における位置(例えばユーザによって指定された位置)を含む概念である。情報処理システム1は、例えば、過去にパノラマ動画が再生された場合に取得された履歴に基づく情報をパノラマ動画とともに出力することが可能である。また例えば、複数の表示装置において1つのパノラマ動画が同時に再生される場合において、情報処理システム1は、他の表示装置で再生されている表示範囲を表す情報を、別の表示装置においてパノラマ動画とともに出力したりすることが可能である。上記のように、本実施形態においては、情報処理システム1は、過去においてまたは他の装置においてパノラマ動画が再生される際の再生内容を、現在再生中のパノラマ動画の出力に反映する。これによって、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。例えば、他のユーザがパノラマ動画のどこを見ていたか等の興味深い情報をユーザに提示することができる。
パノラマ動画が別に再生される場合における再生内容を反映してパノラマ動画を出力する態様としては、過去に再生された再生内容を反映する第1の態様と、他の装置において同時に(リアルタイムに)再生された再生内容を反映する第2の態様とが少なくとも考えられる。第1の態様は、過去にパノラマ動画が再生された場合における再生内容を、そのパノラマ動画がその後に再生される場合に反映させる態様である。第2の態様は、少なくとも2つの表示装置において同じパノラマ動画(表示範囲は異なっていてもよい)が再生される場合に、ある表示装置における再生内容を、他の表示装置におけるパノラマ動画の再生に反映させる態様である。以下、第1の態様および第2の態様について説明する。
(5−1)第1の態様
第1の態様において、情報処理システム1は、パノラマ動画の再生中における表示範囲に関する情報を履歴情報として記憶しておき、その後において当該パノラマ動画が再生される際に、記憶した履歴情報に基づいて出力を行う(後述する第2および第3モード)。すなわち、情報処理装置3は、パノラマ動画の再生中において上述の範囲情報を取得し、情報処理装置がアクセス可能な記憶部に履歴情報として記憶する。そして、情報処理装置3は、履歴情報が記憶された後で、履歴情報に基づく情報を出力する。
上記のように、本実施形態においては、パノラマ画像の再生中において、ユーザによって操作された表示範囲を履歴情報として記憶しておくことが可能である。これによって、履歴情報に応じた出力をパノラマ動画の再生とともに行うことが可能である。例えば、情報処理装置3は、履歴情報に基づいて付加情報を生成し、当該付加情報をパノラマ動画とともに出力したり、履歴に基づいて表示範囲を制御してパノラマ動画を再生したりすることができる。これによれば、ユーザは、例えばパノラマ動画のどの位置がよく見られているか、および/または、他のユーザがパノラマ動画のどの場所を見ていたか等を知ることができる。つまり、本実施形態によれば、単にパノラマ動画を提示するだけでなく、ユーザにとって興味深い情報をパノラマ動画とともに提示することができる。以下、履歴の記憶および履歴に基づくパノラマ動画の再生の詳細について説明する。
(5−1−1)履歴情報の記憶
情報処理システム1は、パノラマ動画の再生中において、上記の履歴情報を記憶する。本実施形態において、情報処理システム1は、パノラマ動画における再生時点を特定可能な入力時間情報と、当該再生時点における表示範囲および/または当該表示範囲内の位置を特定可能な範囲情報とを関連づけた履歴情報を記憶する。履歴情報は、上述の記憶部(ここではメモリ6)に記憶される。図20は、履歴情報の一例を示す図である。図20に示すように、履歴情報は、上記入力時間情報と範囲情報との組を複数含む。本実施形態においては、入力時間情報はパノラマ画像のフレーム番号の情報であり、範囲情報は仮想カメラ22の姿勢を表すベクトルの情報である。本実施形態においては、入力時間情報と範囲情報との組がパノラマ動画の1フレーム毎に記憶されるが、他の実施形態においては、所定時間間隔で当該組が記憶されてもよいし、キーとなるフレームについて当該組が記憶されてもよいし、所定の条件が満たされたタイミングで当該組が記憶されてもよい。上記のように、入力時間情報と範囲情報とを関連づけた履歴情報を記憶することによって、パノラマ動画における各再生時点における表示範囲を特定することができる。
また、図20に示すように、本実施形態においては、履歴情報に対応するユーザを表すユーザ情報が履歴情報と関連づけて記憶される。なお、「履歴情報に対応するユーザ」とは、履歴情報により表される表示範囲の操作を行ったユーザである。ユーザ情報は、ユーザを特定可能な情報であればどのような情報であってもよいが、本実施形態においては、予め登録されたユーザの名前がユーザ情報として記憶される。
なお、他の実施形態においては、履歴情報には上記の情報以外の他の情報が含まれていてもよい。例えば、履歴情報は、表示範囲の大きさを示す情報(ズーム情報)を含んでいてもよい。また、履歴情報は、パノラマ動画の再生中にユーザが行った、再生に関する操作を示す情報(再生制御情報と呼ぶ)を含んでいてもよい。再生制御情報とは、例えば、パノラマ動画の再生の一時停止、巻き戻し、および早送り等の操作を示す情報である。再生制御情報は、さらに、当該操作が行われた再生時点を含んでいてもよい。また、パノラマ動画がいわゆるマルチカメラ方式である場合がある。マルチカメラ方式においては、単一の空間を異なる視点から見た複数のパノラマ動画が用意され、パノラマ動画の再生中において視点を切り替えることが可能である。この場合には、当該視点の情報を履歴情報に含めて記憶してもよい。また、上述したコメント(付加情報)がユーザによって入力される場合には、上述の入力情報と履歴情報とを関連づけて記憶しておいてもよい。つまり、上記入力情報を履歴情報の一部として記憶しておいてもよい。
(5−1−2)履歴情報を用いたパノラマ動画の再生
情報処理システム1は、上記履歴情報に基づいてパノラマ動画の再生を行うことが可能である。すなわち、情報処理システム1は、履歴情報に応じて出力内容(表示態様)を変化させてパノラマ動画を出力する。これによって、パノラマ動画を単に提示するだけでなく、履歴情報(あるいは履歴情報に基づく情報)をユーザに提示することができる。ここで、履歴情報に応じて出力内容を変化させてパノラマ動画を出力する方法としては、例えば以下の(A)〜(C)の方法が考えられる。
(A)履歴関連情報を出力する方法
本実施形態において、情報処理システム1は、履歴情報に基づいて生成される情報をパノラマ動画とともに出力することが可能である。以下では、履歴情報に基づいて生成される情報を「履歴関連情報」と呼ぶ。情報処理システム1は、以下に説明する各種の履歴関連情報を履歴情報から生成し、パノラマ動画が再生される際に当該履歴関連情報を出力する。これによれば、ユーザは、パノラマ動画の再生中に履歴関連情報を見ることにより、他のユーザの履歴に関する情報を知ることができる。
(表示範囲の方向を表す履歴関連情報)
図21は、履歴関連情報の画像の一例を示す図である。図21に示す履歴関連情報は、履歴情報により特定される表示範囲の向きをユーザに提示するものである。すなわち、図21においては、現在の表示範囲に対する、履歴情報(履歴情報に含まれる範囲情報)により特定される表示範囲の向きを表す画像51が履歴関連情報として表示される。なお、履歴関連情報である画像51は、上述のガイド情報であるとも言える。
具体的には、情報処理システム1は、履歴情報に含まれる範囲情報のうち、現在の再生時点に対応する入力時間情報に関連づけられる範囲情報に基づいて、パノラマ画像上の範囲または位置を特定する。そして、現在の表示範囲を基準として、算出された範囲または位置の向きを算出する。なお、この向きは、上述したガイド情報が表す向きと同様の方法で算出することができる。情報処理システム1は、算出された向きを表す画像51を端末装置2に表示させる。なお、画像51は、LCD11の画面上において、算出された向きに応じた位置(図21では、算出された向きが左向きであるので、画面左側の位置)に表示される。
上記画像51が提示されることによって、ユーザは、自分が見ている表示範囲を基準にして、他のユーザがパノラマ動画のどこを見ていたかを知ることができる。また、他のユーザが見ていた場所が気になる場合には、ユーザは、画像51が示す方向に表示範囲を移動させることによって、当該他のユーザが見ていた場所と同じ場所を見ることができる。なお、図21に示す例において、現在の表示範囲と履歴情報により特定される表示範囲とが(一部において)重なる場合には、その旨を通知する画像が表示されてもよい。
また、図21においては、履歴関連情報を表す画像51とともに、当該履歴関連情報に対応するユーザ情報(履歴情報に関連づけられて記憶されるユーザ情報)を表す画像52が表示される。これによって、ユーザは、履歴関連情報により特定される表示範囲を見ていたユーザを特定することができる。ここで、パノラマ動画は、一画面内に収まらない領域を有する動画であり、端末装置2における表示範囲はユーザが自由に操作することができる。そのため、表示範囲の位置やその変化は、パノラマ動画を見る人(ユーザ)によって異なるので、表示範囲の履歴情報はユーザの個性を反映したものと言え、このような履歴情報は他のユーザにとって有益な(興味深い)情報となり得る。したがって、履歴情報とともにユーザ情報を提示することで、パノラマ動画に対するユーザの興味を向上させることができ、パノラマ動画を何度も視聴する動機付けをユーザに与えることができる。なお、以下に説明する他の内容を表す表示態様(図22および図23)においても、履歴関連情報とともにユーザ情報が表示されてもよい。
(表示頻度を表す履歴関連情報)
図22は、履歴関連情報の画像の他の一例を示す図である。図22に示す履歴関連情報は、履歴情報から得られる、パノラマ画像上における所定の範囲についての表示頻度をユーザに提示するものである。図22においては、以前のパノラマ動画の再生において現在の表示範囲が表示された回数を表す画像53が履歴関連情報として表示される。なお、上記表示頻度をユーザに提示するための画像は、回数を表す画像53の他、どのようなものであってもよい。情報処理装置3は、例えば、履歴情報に含まれる範囲情報から得られる位置およびまたは範囲毎にユーザ情報(各ユーザを表すキャラクタ等)をパノラマ動画とともに表示するようにしてもよい。これによれば、以前のパノラマ動画の再生において現在の表示範囲が表示された回数に応じた数のユーザ情報が表示されるので、ユーザは、表示されるユーザ情報の数によって当該回数の多寡を知ることができる。
上記回数を表示頻度として算出する場合、情報処理システム1はまず、履歴情報に含まれる範囲情報のうち、現在の再生時点に対応する入力時間情報に関連づけられる範囲情報を選出する。そして、選出された範囲情報に基づいて、パノラマ画像上の範囲または位置を特定し、特定された範囲または位置が現在の表示範囲に含まれるか否かを判定する。情報処理システム1は、記憶部に記憶される各履歴情報について上記の判定を行い、判定結果が肯定となる履歴情報の数をカウントする。以上のようにしてカウントされた数を表す画像53が端末装置2に表示される。画像53の履歴関連情報は、複数の履歴情報から得られる統計を表すものである。また、画像53は、LCD11の画面上における所定位置に表示される。なお、情報処理システム1は、画像53を繰り返し(例えば、1フレーム毎に)更新してもよい。
上記回数は、記憶されている1以上の履歴情報のうちで、入力時間情報に関する条件(入力時間情報が現在の再生時点に対応すること)と、範囲情報に関する条件(範囲情報が表す範囲または位置が現在の表示範囲に含まれること)とを満たす履歴情報の数であった。これによって、複数回のパノラマ動画の再生を対象とした表示頻度を算出することができ、当該表示頻度をユーザに提示することができる。すなわち、上記画像53が提示されることによって、ユーザは、自分が見ている表示範囲が他のユーザにどの程度見られているかを知ることができる。例えばユーザは、人気が高い(他のユーザによく見られている)範囲に表示範囲を合わせてパノラマ動画を再生したり、逆にあまり見られていない範囲に表示範囲を合わせてパノラマ動画を再生したりすることができる。また、上記画像53によって、複数人のユーザ(あるいは複数回の視聴)に基づく統計情報をユーザに提供することができる。
なお、履歴情報から算出される表示頻度は、複数回のパノラマ動画の再生を対象としたものに限らず、1回のパノラマ動画の再生を対象としたものであってもよい。つまり、表示頻度は、1回のパノラマ動画の再生において、パノラマ画像中の所定範囲がどの程度見られたかを表すものであってもよい。図23は、履歴情報に基づく履歴関連情報の画像の他の一例を示す図である。図23に示す履歴関連情報は、上述のオブジェクト情報が表すオブジェクトに関するものであり、1回のパノラマ動画の再生においてオブジェクト(オブジェクトの範囲)がどの程度見られたか(表示されたか)を表す。すなわち、図23においては、現在の表示範囲内のオブジェクトについて、履歴情報に基づいて判断されるオブジェクトの表示頻度(注目度合い)を表す画像54が履歴関連情報として表示される。なお、図23に示すように、履歴関連情報を表す画像54は、当該履歴関連情報に対応するオブジェクトの位置(範囲)に関連づけて表示される。上記画像54が提示されることによって、ユーザは、パノラマ動画を他のユーザが再生した際にそのオブジェクトをどの程度注目していたかを知ることができる。
1回のパノラマ動画の再生を対象とした表示頻度を算出する場合、情報処理システム1は、履歴情報に含まれる範囲情報のうちで、パノラマ画像上における位置に関する所定の条件を満たす範囲情報の数を算出する。具体的に本実施形態においては、情報処理システム1は、履歴情報に含まれる各範囲情報について、範囲情報により特定される表示範囲内に上記オブジェクトが含まれているか否かを判定する。なお、この判定は、各範囲情報と上記オブジェクト情報とに基づいて行うことができる。情報処理システム1は、上記の判定の結果が肯定となる範囲情報の数をカウントし、カウントされた数に応じた注目度合いを判断する。例えば、上記の数が所定数以上である場合には、当該オブジェクトに関連づけて注目度合いが高いことを表す画像54が履歴関連情報として出力される。一方、上記の数が所定数より小さい場合には、注目度が低いことを表す画像が履歴関連情報として出力されてもよいし、履歴関連情報が出力されなくてもよい。
なお、他の実施形態においては、複数回のパノラマ動画の再生を対象としてオブジェクトの表示頻度(注目度合い)を表す履歴関連情報を算出することも可能である。このとき、情報処理システム1は、上記範囲情報の数を算出する処理を、記憶部に記憶されている各履歴情報について行う。
また、履歴関連情報が表す表示頻度は、パノラマ画像中の所定範囲に関する表示頻度を表すものであればよく、当該所定範囲は、表示範囲でもよいし、オブジェクトの範囲でもよい。
また、表示頻度(注目度合い)は、上述した再生制御情報を用いて決定されてもよい。例えば、情報処理システム1は、ユーザが再生を一時停止した時点で表示範囲に含まれるオブジェクトについて注目度合いが高いと判断してもよい。また例えば、巻き戻しによって何回も繰り返し再生された期間に表示されていた範囲については、表示頻度(あるいは注目度合い)が高いと判断してもよい。
なお、履歴関連情報は、例えば画像54のように、パノラマ画像上における特定の位置に表示されることがあり得る。この場合、情報処理システム1は、上記(3−3−2)で説明した付加情報と同様、履歴関連情報を、当該履歴関連情報に対応するオブジェクトの移動に合わせて移動させて表示するようにしてもよい。
また、他の実施形態においては、情報処理システム1は、履歴関連情報を表す画像を表示させることとともに、あるいは、表示させることに代えて、履歴関連情報を表す音声を出力してもよい。なお、上記音声は、端末装置2および/またはモニタ4から出力される。
(履歴関連情報の出力先)
本実施形態においては、履歴関連情報も上記[3.ユーザによるコメントの入力]等で説明した付加情報と同様、端末装置2に表示される。これによって、ユーザに履歴関連情報をより確実に認識させることができる。なお、履歴関連情報も上記付加情報と同様、モニタ4に表示されてもよい。これによれば、端末装置2に表示されるパノラマ動画を見やすく提示することができる。また、他の実施形態において、情報処理システム1は、モニタ4にパノラマ画像の全体を表示し、全体のパノラマ画像とともに(全体のパノラマ画像に重ねて)履歴関連情報を表示してもよい。
(B)履歴情報に基づいて決定される表示範囲を再生する方法
本実施形態において、情報処理システム1は、履歴情報に基づいて表示範囲を決定してパノラマ動画を再生することが可能である。具体的には、情報処理システム1は、パノラマ動画の各再生時点(各フレーム)における表示範囲を、履歴情報に記憶されている範囲情報に基づいて決定する。そして、決定された表示範囲のパノラマ画像を表示装置に表示させる。これによって、ユーザは、履歴情報が記憶された場合と同じ表示範囲でパノラマ動画を再生することができる。
本実施形態においては、履歴情報に基づいて決定された表示範囲のパノラマ動画は、モニタ4に表示される。一方、端末装置2には、ユーザ入力に基づいて決定される表示範囲のパノラマ動画が表示される。これによって、ユーザは、端末装置2を用いて所望の表示範囲でパノラマ動画を見ることができるとともに、それと同時に、他のユーザが見ていた表示範囲でパノラマ動画を見ることができる。なお、他の実施形態においては、情報処理システム1は、履歴情報に基づいて決定された表示範囲のパノラマ動画を単に1つの表示装置(端末装置2またはモニタ4)によって再生してもよい。また、他の実施形態において、パノラマ画像の全体、あるいは、パノラマ画像が表す空間の画像(例えば、鳥瞰図やマップ)がモニタ4に表示される場合、モニタ4に表示される画像とともに(当該画像に重ねて)履歴関連情報が表示されてもよい。
図24は、履歴情報に基づいて決定された表示範囲のパノラマ動画がモニタ4に表示される場合の一例を示す図である。図24においては、仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画55とともに、履歴情報に基づいて決定された表示範囲のパノラマ動画56がモニタ4に表示される。このように、履歴情報に基づく表示範囲のパノラマ動画56は、モニタ4の画面領域の一部に表示されてもよい。履歴情報に基づく表示範囲のパノラマ動画56は、端末装置2の画面領域の一部に表示されてもよい。また、例えば、複数の履歴情報からそれぞれ複数の表示範囲が決定され、決定された各表示範囲のパノラマ動画(複数のパノラマ動画)が、モニタ4および/または端末装置2に表示されてもよい。
また、表示範囲は、複数の履歴情報に基づいて決定されてもよい。例えば、情報処理システム1は、表示頻度が高い表示範囲を、複数の履歴情報を用いて特定し、特定された表示範囲のパノラマ動画を表示するようにしてもよい。
(C)パノラマ動画とともに他の画像を表示する方法
また、他の実施形態においては、情報処理システム1は、履歴情報に基づいて補助画像を生成し、当該補助画像をパノラマ動画とともに表示してもよい。補助画像は、履歴情報に基づいて決定される表示範囲に応じた画像であり、換言すれば、当該表示範囲をユーザに認識させることができる画像である。補助画像としては、例えば、パノラマ動画が表す空間を上方から見たマップ(あるいは俯瞰図)の画像が考えられる。
図25は、パノラマ動画とともに補助画像が表示される場合の一例を示す図である。図25においては、現在の表示範囲のパノラマ動画61とともに、パノラマ動画が表すマップ画像62が補助画像として端末装置2に表示される。マップ画像62は、パノラマ動画61が表す空間を上方から見たマップを表す画像である。マップ画像62は、例えば視点画像63を含む。視点画像63は、マップ上における視点の位置を表す。すなわち、カメラを表す視点画像63が、マップ上における視点の位置に配置される。なお、視点の移動方向および移動速度が予めわかる場合、マップ上における視点の位置は、現在の再生時点(フレーム番号)から特定することができる。
また、視点画像63は、マップ上における視線方向を表す。すなわち、カメラを表す視点画像63は、マップ上における視線方向を向くように配置される。上記視線方向は、履歴情報に基づいて決定される表示範囲から(例えば仮想カメラ22の姿勢を用いて)算出することができる。このように、情報処理装置3は、範囲情報に基づく表示範囲に対応する視線方向を表す画像(視点画像63)を表示装置に表示させてもよい。これによって、他のユーザが見ていた方向をユーザに提示することができる。なお、図25においては、視点画像63は、履歴情報に基づく表示範囲に対応する視線方向を表すが、履歴情報に基づく位置に対応する視線方向を表すものであってもよい。
また、マップ画像62は、履歴関連情報を含んでいてもよい。例えば図25においては、注目度合いが高いことを表す画像64がマップ上に配置される。このとき、履歴関連情報はパノラマ動画61上にも表示されてもよいし、されなくてもよい。このように、情報処理装置3は、パノラマ動画が表す空間と、範囲情報に基づく位置(パノラマ動画上における位置。ここでは履歴関連情報の位置)に対応する当該空間内における位置とを表す画像を表示装置に表示させてもよい。これによって、範囲情報が表す位置を、パノラマ動画とは異なる視点から見た画像で表現することができ、当該位置をよりわかりやすくユーザに提示することができる。
なお、履歴関連情報のマップ上における位置は、履歴関連情報のパノラマ動画上における位置から算出することができる。マップ上における位置は、どのような方法で算出されてもよい。例えば、パノラマ動画上の位置(あるいは仮想カメラ22の姿勢)と、マップ上における位置とを予め対応づけた情報を用意してくことで、パノラマ動画上の位置から当該情報に基づいてマップ上の位置を算出することができる。また例えば、上記オブジェクト情報が用意される場合には、オブジェクト情報により表されるオブジェクトに関するマップ上の位置を予め算出しておき、パノラマ動画上の位置からオブジェクトを特定し、オブジェクトからマップ上の位置を特定するようにしてもよい。
以上のように、履歴情報に基づく表示範囲および/または履歴関連情報は、マップ画像を用いて表すことも可能である。履歴情報に基づく表示範囲および/または履歴関連情報を、パノラマ動画とは別の補助画像上に表示することによって、パノラマ動画を見やすく表示することができる。
また、他の実施形態においては、情報処理システム1は、上記の(A)〜(C)の方法のうちのいくつかを同時に用いてパノラマ動画を再生してもよい。例えば、情報処理システム1は、パノラマ動画とともに履歴関連情報を端末装置2に表示しつつ、履歴情報に基づいて決定された表示範囲のパノラマ動画をモニタ4に表示するようにしてもよい。
(5−1−3)履歴情報の取得
過去に再生された再生内容を反映する第1の態様において、履歴情報を取得する装置と、履歴情報を反映させる装置とは同じ装置であってもよいし、異なる装置であってもよい。すなわち、情報処理装置3は、履歴情報を反映したパノラマ動画を表示する表示装置において再生されるパノラマ動画に関する範囲情報を履歴情報として取得してもよい。また、情報処理装置3は、履歴情報を反映したパノラマ動画を表示する表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得してもよい。このとき、例えば上記(B)で述べたように、情報処理装置3は、2つの表示装置を用いてパノラマ動画を再生してもよい。すなわち、情報処理装置3は、パノラマ動画が上記表示装置(本実施形態においては端末装置2)において表示される間、所定の入力装置に対する入力に基づいて表示範囲を決定し、決定された表示範囲のパノラマ動画を上記他の表示装置(本実施形態においてはモニタ4)に表示させてもよい(図24)。
情報処理システム1は、端末装置2に対する入力に応じて履歴情報を記憶する他、情報処理システム1の外部の他の装置から履歴情報を取得してもよい。そして、取得された履歴情報に応じて出力内容を変化させてパノラマ動画を出力するようにしてもよい。例えば、情報処理装置3は、インターネット等のネットワークを介して外部の装置と通信可能であってもよく、このとき、当該外部の装置から履歴情報を取得してもよい。これによれば、ユーザは、他のユーザ(例えば知人や有名人)の履歴情報に基づく情報をパノラマ動画とともに見ることができる。
なお、外部の装置から履歴情報を取得する場合において、履歴情報には、当該履歴情報により表される入力を行ったユーザを表すユーザ情報が含まれていてもよい。このとき、情報処理システム1は、パノラマ動画を出力する場合にユーザ情報を出力してもよい。例えば、履歴関連情報を出力する場合には、履歴関連情報とともにユーザ情報を出力してもよいし(図20参照)、履歴情報に基づいて表示範囲を決定する場合には、決定された表示範囲のパノラマ動画とともにユーザ情報を出力してもよい。
(5−2)第2の態様
本実施形態において、情報処理システム1は、2つの表示装置(端末装置2およびモニタ4)において同じパノラマ動画を再生させ、一方の表示装置における再生内容を、他の表示装置におけるパノラマ動画の再生に反映させる(後述する第4モード)。すなわち、情報処理装置3は、パノラマ動画が表示装置(例えばモニタ4)において表示される間に、当該表示装置とは別の他の表示装置(例えば端末装置2)において当該パノラマ動画を出力させる。そして、情報処理装置3は、上記他の表示装置(端末装置2)においてパノラマ動画が再生される場合に上記範囲情報を取得する。さらに、情報処理装置3は、他の表示装置(端末装置2)においてパノラマ動画が再生される間に、取得された範囲情報に応じて出力内容を変化させて表示装置(モニタ4)にパノラマ動画を表示させる。
上記によれば、複数のユーザが同時に1つのパノラマ動画を見ている場合において、他のユーザがパノラマ動画のどの場所を見ているかという、ユーザにとって興味深い情報をパノラマ動画とともに提示することができる。以下、他の装置において同時に再生された再生内容を反映する第2の態様について詳細を説明する。
(5−2−1)範囲情報の取得
第2の態様において、情報処理システム1は、パノラマ動画が再生される際、少なくとも範囲情報を取得する。本実施形態においては、情報処理装置3は、端末装置2およびモニタ4においてパノラマ動画を再生させる際、端末装置2における再生に関する範囲情報を取得する。なお、第2の態様においては、ある表示装置における再生において取得した範囲情報をリアルタイムで別の表示装置における再生に反映させるので、入力時間情報は必ずしも取得されなくてもよい。ただし、現時点で取得した範囲情報に加えて、過去に取得した範囲情報に基づいて出力内容を変化させる場合には、情報処理装置3は、上記第1の態様と同様、範囲情報とともに入力時間情報を取得してもよい。また、情報処理装置3は、範囲情報とともに、ユーザ情報、ズーム情報、および再生制御情報等のうちいくつかを取得してもよい。
(5−2−2)範囲情報を用いたパノラマ動画の再生
情報処理システム1は、上記範囲情報に基づいてパノラマ動画の再生を行う。すなわち、情報処理システム1は、範囲情報に応じて出力内容(表示態様)を変化させてパノラマ動画を出力する。これによって、パノラマ動画を単に提示するだけでなく、他の表示装置における再生内容に関する情報(範囲情報)をユーザに提示することができる。第2の態様において、範囲情報に応じて出力内容を変化させてパノラマ動画を出力する方法としては、例えば以下の方法が考えられる。
本実施形態においては、情報処理装置3は、端末装置2における再生によって取得された範囲情報に基づいて決定される表示範囲をモニタ4において再生する。すなわち、端末装置2における表示範囲のパノラマ動画の画像を、モニタ4の一部領域において表示させる。具体的には、情報処理装置3は、パノラマ動画がモニタ4において表示される間、所定の入力装置(端末装置2)に対する入力に基づいて表示範囲を決定し、決定される表示範囲のパノラマ動画を端末装置2に表示させる。そして、情報処理装置3は、所定の範囲のパノラマ動画をモニタ4に表示させるとともに、上記範囲情報に基づく表示範囲のパノラマ動画をモニタ4に表示させる。このとき、モニタ4に表示される画像については、例えば図24と同様、仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画55とともに、上記範囲情報に基づく表示範囲のパノラマ動画がモニタ4の一部の領域に表示されてもよい。
上記によれば、モニタ4を見ることで端末装置2の再生内容を確認することができる。ここで、端末装置2は可搬型であるので、端末装置2の表示画面を複数人で見ると見づらくなる。これに対して、モニタ4に端末装置2の再生内容を表示することで、端末装置2のユーザ以外の他のユーザは端末装置2の再生内容を容易に確認することができる。これによって、端末装置2のユーザと他のユーザとの間でコミュニケーションが図りやすくなり、例えば表示範囲を操作しない他のユーザもパノラマ動画を十分に楽しむことができる。
なお、端末装置2において表示範囲が操作されるパノラマ動画をモニタ4に表示する場合、他のユーザは、自身が操作しない表示範囲のパノラマ動画を見ることになる。このとき、表示範囲の変化が大きい場合には、他のユーザはパノラマ動画を見づらく感じるおそれがある。例えば、表示範囲が急激に変化する場合等には、他のユーザはパノラマ動画を見づらく感じるおそれがある。また例えば、本実施形態のように端末装置2自体を動かすことで表示範囲が移動する場合に、手ぶれによる表示範囲の小さな移動(揺れ)が生じると、他のユーザはパノラマ動画を見づらく感じるおそれがある。そのため、情報処理装置3は、範囲情報に基づいて決定される表示範囲における変化を軽減してパノラマ動画を表示装置(モニタ4)に表示させてもよい。これによって、他のユーザにとってより見やすいパノラマ動画を提供することができる。なお、表示範囲の変化を軽減する方法としては、例えば以下の方法が考えられる。
例えば、端末装置2にパノラマ動画を表示するための端末装置用仮想カメラと同じ視点に同じ視線方向となるモニタ用仮想カメラを仮想世界に設定し、当該端末装置用仮想カメラの動きと基本的に同じ動きで当該モニタ用仮想カメラを動作させる。そして、第1の制御例として、実空間における端末装置2の向きの単位時間当たり変化量が所定の閾値未満である場合や、端末装置2の動きを検出するセンサ(加速度センサ14、ジャイロセンサ15等)から出力される値(加速度や角速度を示す値)が所定の閾値未満である場合等には、上記モニタ用仮想カメラの姿勢を固定して、手ぶれによる画像の相対的に小さな揺れを防止する。そして、上記変化量や出力値が0になった場合や当該閾値以上となった場合に上記端末装置用仮想カメラの姿勢に近づくまたは同じとなるように当該モニタ用仮想カメラの姿勢を制御する。
第2の制御例として、実空間における端末装置2の向きの単位時間当たり変化量が所定の閾値以上である場合や、端末装置2の動きを検出するセンサから出力される値が所定の閾値以上である場合等には、上記モニタ用仮想カメラの動きを制限して、視線方向の相対的に大きな変化を抑制する。そして、上記変化量や出力値が当該閾値未満となった場合に上記端末装置用仮想カメラの姿勢に近づくように当該モニタ用仮想カメラの姿勢を制御する。
第3の制御例として、上記端末装置用仮想カメラの動きに所定の割合で追従するように上記モニタ用仮想カメラの動きを制御することによって、手ぶれによる画像の相対的に小さな揺れや視線方向の相対的に大きな変化を抑制する。具体的には、上記端末装置用仮想カメラの視線方向と上記モニタ用仮想カメラの視線方向との角度差に対して所定の割合(例えば、50%)だけ、当該端末装置用仮想カメラの視線方向に近づくように当該モニタ用仮想カメラの視線方向が常に変化するように制御する。
上記の制御例の1つまたは組み合わせを用いて姿勢制御されるモニタ用仮想カメラから見た上記立体モデル内面の画像をモニタ4に表示することによって、端末装置2に表示しているパノラマ動画の視線方向の変化を軽減した画像をモニタ4に表示することができる。
また、上述した説明では、ある表示装置に表示しているパノラマ動画を他の表示装置に表示する場合において、表示範囲の移動の変化を軽減する例を説明した。なお、他の実施形態においては、表示範囲が拡大または縮小する際の変化を軽減することも考えられる。例えば、端末装置2を把持するユーザが端末装置2に表示されているパノラマ動画を拡大表示または縮小表示する操作を行った場合、LCD11には当該操作に応じて拡大または縮小したパノラマ動画がそのまま表示される。一方、端末装置2に対する操作に応じて拡大または縮小して端末装置2に表示されたパノラマ動画をモニタ4にも表示する場合、当該パノラマ動画の拡大率または縮小率が所定の閾値以上となる場合は、拡大率または縮小率を当該閾値に抑制したパノラマ動画をモニタ4に表示する。また、端末装置2に対する操作に応じて、パノラマ動画を拡大してから縮小するまでの時間またはパノラマ動画を縮小してから拡大するまでの時間が所定時間以内に行われた場合、当該所定時間内に行われた縮小または拡大を抑制したパノラマ動画をモニタ4に表示する。このような制御例の1つまたは組み合わせを用いてパノラマ動画の拡大または縮小を制御したパノラマ動画をモニタ4に表示することによって、端末装置2に拡大または縮小する画像変化を軽減したパノラマ動画をモニタ4に表示することができる。
また、他の実施形態において、情報処理装置3は、範囲情報に基づく表示範囲または位置に対応する視線方向を表す画像をパノラマ動画とともに表示装置に表示させてもよい。図26は、視線方向を表す画像の一例を示す図である。図26においては、端末装置2には、端末装置2の姿勢に応じた視線方向(ここでは正面方向よりもやや右向きの視線方向)に対応する表示範囲のパノラマ動画が表示される。モニタ4には、仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画65とともに、範囲情報に基づく表示範囲または位置に対応する視線方向を表す画像66が表示される。本実施形態においては、上記視線方向を表す画像66は、端末装置2のユーザを模したキャラクタが端末装置を把持した様子を表す。このとき、キャラクタが把持する端末装置の姿勢は、端末装置2の実際の姿勢に対応するように変化する。端末装置2の姿勢は上記視線方向に対応しているので、端末装置2の姿勢を表す画像66を表示することによって、ユーザに上記視線方向を通知することができる。なお、図26では、画像66によって表されるキャラクタの向きは、端末装置2のユーザの向きと同じとなるように制御される。これに対して他の実施形態においては、キャラクタの顔が見えやすいように、端末装置2のユーザの向きに対して前後方向を逆にした向きを向くように(つまり、端末装置2のユーザの鏡像となるように)、当該キャラクタの向きが制御されてもよい。また、他の実施形態においては、上記視線方向を表す画像として、マップ画像62および視点画像63がパノラマ動画とともに表示されてもよい。これによっても、ユーザに上記視線方向を通知することができる。
また、他の実施形態において、情報処理装置3は、パノラマ動画の再生中においてユーザによって指定された位置を表す範囲情報を取得し、当該範囲情報に基づいて決定されるパノラマ画像上における位置を表す画像をパノラマ動画とともに表示装置に表示させてもよい。例えば、端末装置2においてパノラマ動画上のある位置に対して付加情報が入力された場合、モニタ4においても当該位置に当該付加情報を表示するようにしてもよい。図27は、範囲情報に基づく位置を表す画像がパノラマ画像とともに表示される場合の一例を示す図である。図27においては、端末装置2の表示範囲内において、付加情報を表す画像67が入力されて表示されたものとする。このとき、情報処理装置3は、表示範囲内において付加情報が入力された位置を表す範囲情報を取得する。そして、情報処理装置3は、モニタ4に表示される表示範囲において、取得された範囲情報が表す位置に、上記付加情報を表す画像68を表示させる。これによって、ユーザは、端末装置2において入力された付加情報をモニタ4においても確認することができ、端末装置2のユーザ以外の他のユーザも付加情報を確認することができる。なお、取得された範囲情報が表す位置が、モニタ4における表示範囲外にある場合には、上記画像68はモニタ4に表示されない。この場合、情報処理装置3は、上述したガイド画像をモニタ4に表示してもよい。また、上記画像68が表示される期間は、対応する付加情報を表す画像67が端末装置2に表示される期間に基づいて決定される。そのため、情報処理装置3は、付加情報が入力された位置を表す範囲情報を取得するとともに、上記期間を表す入力時間情報を取得してもよい。
なお、本実施形態においては、端末装置2における再生内容をモニタ4に反映させる場合を例として説明した。ここで、他の実施形態においては、情報処理装置3は、モニタ4における再生内容を端末装置2に反映させるようにしてもよい。例えば、情報処理装置3は、モニタ4における表示範囲のパノラマ画像を端末装置2において表示させるようにしてもよい。また例えば、モニタ4における表示範囲内の位置を上記操作装置7によって指定することが可能な場合には、情報処理装置3は、モニタ4における表示範囲内において指定された位置を表す画像を端末装置2に表示させるようにしてもよい。
以上のように、上記第1の態様および第2の態様においては、情報処理装置3は、パノラマ動画の再生中において、所定の入力装置(端末装置2)に対する入力に基づいて決定される表示範囲(および/または当該表示範囲内の位置)を特定可能な範囲情報を取得する。そして、パノラマ動画を表示装置(モニタ4)を用いて出力する場合、取得された範囲情報に応じて出力内容を変化させてパノラマ動画を出力する。これによって、過去においてまたは他の装置においてパノラマ動画が再生される際の再生内容を、現在再生中のパノラマ動画の出力に反映することができ、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。
(5−3)再生終了後における履歴情報に基づく出力
なお、上記第1の態様においては、範囲情報が履歴情報として記憶される。情報処理装置3は、パノラマ動画の再生が終了した後において当該再生時に取得された履歴情報に基づく情報を出力するようにしてもよい。例えば、情報処理装置3は、パノラマ動画の再生中において表示頻度が高かったオブジェクト、あるいは、複数回の再生において表示頻度が高かった表示範囲を再生終了後に提示することができる。これによれば、パノラマ動画の再生中にユーザがどこを見ていたか、という興味深い情報をユーザに提示することができる。
例えば、情報処理装置3は、パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として表示装置(端末装置2および/またはモニタ4)に表示させてもよい。以下、パノラマ動画の再生終了後に、履歴情報に基づいて決定される表示範囲のパノラマ画像を提示する例について説明する。
図28は、パノラマ動画の再生終了後において表示される画像の一例を示す図である。図28においては、パノラマ動画の再生中において表示頻度が高かったオブジェクトを含むパノラマ画像68がモニタ4に表示される。このとき、上記オブジェクトを指し示す画像69が表示されてもよい。なお、情報処理装置3は、上記オブジェクトを含むパノラマ画像を、静止画として表示してもよいし、動画として表示してもよい。このように、報処理装置3は、パノラマ動画の再生中において表示頻度が高かったオブジェクト(つまり、よく見られていたオブジェクト)を、再生終了後において表示してもよい。
具体的には、情報処理装置3は、(パノラマ動画の再生中において)上記範囲情報を履歴情報として取得しておく。そして、情報処理装置3は、履歴情報によって特定される表示範囲に、パノラマ動画中に登場するオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出する。なお、上記の判別は、例えば履歴情報と上述のオブジェクト情報とを用いて行うことが可能である。例えば、情報処理装置3は、パノラマ動画に登場する複数のオブジェクトについて表示時間を上記の判別によって算出し、表示時間が長い(表示頻度が高い)オブジェクトを選出してもよい。パノラマ動画の再生後において、情報処理装置3は、選出されたオブジェクトが含まれる表示範囲のパノラマ画像を表示装置(例えばモニタ4)に表示させる。
上記において、情報処理装置3は、パノラマ動画の再生中において表示頻度が高いオブジェクトを表す範囲情報を履歴情報として取得しておき、再生後に当該履歴情報が表すオブジェクトを特定するようにしてもよい。具体的には、情報処理装置3は、(パノラマ動画の再生中において)パノラマ動画の再生中における表示範囲にオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出する。なお、この判別も第1の方法と同様、例えば上述のオブジェクト情報を用いて行うことが可能である。情報処理装置3は、選出されたオブジェクトを表す情報を範囲情報として記憶する。このように、オブジェクトを表す情報からパノラマ動画上における表示範囲および/または表示範囲内の位置を特定可能である場合には、当該オブジェクトを表す情報が範囲情報として記憶されてもよい。パノラマ動画の再生後において、情報処理装置3は、範囲情報が表すオブジェクトが含まれる表示範囲のパノラマ画像を表示装置(例えばモニタ4)に表示させる。
また、情報処理装置3は、複数の履歴情報がある場合、複数の履歴情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として表示装置に表示させてもよい。例えば、情報処理装置3は、パノラマ動画の再生後において、複数の履歴情報に基づいて、パノラマ動画の領域のうちで表示頻度が高い範囲(あるいは位置)を特定する。そして、特定された表示範囲のパノラマ画像を表示装置(例えばモニタ4)に表示させる。
なお、他の実施形態においては、情報処理装置3は、オブジェクトあるいは表示範囲について、表示頻度の高い順に複数の表示範囲のパノラマ画像を表示してもよい。これによって、ユーザは、パノラマ動画のうちでよく見られている場所(対象)のランキングを知ることができる。また、情報処理装置3は、表示頻度が低いオブジェクトあるいは表示範囲(例えば、まだ表示されたことのないオブジェクトを含む表示範囲)のパノラマ画像を表示してもよい。これによって、パノラマ動画のうちであまり見られていない場所をユーザに通知することができる。
上記(5−1)〜(5−3)にて説明したように、本実施形態においては、情報処理システム1は、パノラマ動画の再生中に取得された範囲情報に応じて出力内容を変化させてパノラマ動画の少なくとも一部を出力する。これによって、パノラマ動画の再生時における情報(例えば、ユーザがどこの表示範囲を見ていたか等)をユーザに提示することができる。
[6.第1の実施形態の具体的な処理例]
以下、図29〜図33を参照して、本実施形態に係る情報処理システム1の具体的な処理および動作を説明する。図29は、本実施形態において情報処理システム1の記憶部(メモリ6)に記憶されるデータの一例を示す図である。図29に示すように、情報処理装置3のメモリ6には、情報処理プログラム70、パノラマ動画データ71、および処理用データ72が記憶される。なお、メモリ6には、図29に示すデータの他、端末装置2から取得した操作データや、各表示装置へ出力すべき画像やそれを生成するために用いられる画像のデータ等が記憶されてもよい。
情報処理プログラム70は、情報処理装置3のコンピュータ(CPU5)に実行させるためのプログラムである。なお、情報処理プログラム70は、情報処理装置3がアクセス可能であって情報処理装置3の内部または外部に設けられるプログラム格納部(記憶装置または記憶媒体等)に記憶されている。プログラム格納部に記憶される情報処理プログラム70の一部または全部が適宜のタイミングで読み込まれてメモリ6に記憶され、CPU5によって実行される。また、情報処理プログラム70の一部または全部は、情報処理プログラム70を実行する情報処理装置内に(例えばライブラリとして)予め記憶されていてもよい。
パノラマ動画データ71は、情報処理システム1において再生されるパノラマ動画データを表す。パノラマ動画データ71には、パノラマ動画を構成する複数のパノラマ画像のデータが含まれる。なお、パノラマ動画データ71には、上述したオブジェクト情報のデータおよび/または付加情報のデータが含まれていてもよい。
処理用データ72は、CPU5において実行される情報処理(図30〜図33)において用いられるデータである。処理用データ72は、表示範囲データ73、入力情報データ74、履歴情報データ75、および、範囲情報データ76を含む。
表示範囲データ73は、ユーザの入力に応じて決定される上記表示範囲を表す。表示範囲データ73は、パノラマ画像上における位置または範囲を示す情報であってもよいし、仮想カメラ22の姿勢を表すベクトルを示す情報であってもよい。入力情報データ74は、上記入力情報を表すデータであり、例えば"(3−2)付加情報の記憶"で述べた各情報を含む(図6参照)。履歴情報データ75は、上記履歴情報を表すデータであり、例えば"(5−1−1)履歴情報の記憶"で述べた各情報を含む(図20参照)。範囲情報データ76は、パノラマ動画の再生中において取得される上記範囲情報を表すデータである。
次に、本実施形態における情報処理の詳細な流れを説明する。本実施形態においては、情報処理システム1が起動されると、情報処理装置3のCPU5は、メモリ6等の記憶部を初期化し、プログラム格納部から情報処理プログラム70をメモリ6に読み込む。そして、CPU5によって当該情報処理プログラム70の実行が開始される。
ここで、本実施形態においては、情報処理システム1は、以下の4種類のモードでパノラマ動画を再生することができる。
・第1モード:パノラマ動画を再生中において上記付加情報の入力を受け付けるとともに、履歴情報を記憶するモード
・第2モード:パノラマ動画の再生中において上記付加情報、ガイド情報、および履歴関連情報を出力するモード
・第3モード:上記履歴情報に基づいて表示範囲を決定してパノラマ動画を再生するモード
・第4モード:2つの表示装置でパノラマ動画を再生し、一方の表示装置の再生内容を他方の表示装置における再生に反映させるモード
上記第1〜第4モードのいずれが実行されるかは、どのように決定されてもよく、例えばユーザの選択によって決定される。なお、情報処理システム1は、いずれか1つのモードのみを実行可能であってもよい。以下、図30〜図33を参照して、各モードにおける動画再生処理の流れを説明する。
なお、図30〜図33に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。また、本実施形態(後述する第2の実施形態についても同様)では、上記フローチャートの各ステップの処理をCPU5が実行するものとして説明するが、上記フローチャートにおける一部のステップの処理を、CPU5以外のプロセッサや専用回路が実行するようにしてもよい。
(第1モードの再生動作)
図30は、本実施形態において情報処理装置3のCPU5が実行する第1モードの動画再生処理の流れの一例を示すフローチャートである。第1モードの実行が選択された場合、CPU5は、図30に示す処理を実行する。
まずステップS1において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。上記ステップS1の処理は、例えば上記"[2.パノラマ動画の再生]"で述べた方法で行われる。なお、ステップS1において、表示範囲を決定するための端末装置2の姿勢はどのように算出されてもよい。本実施形態においては、CPU5は、加速度センサ14および/またはジャイロセンサ15の検出結果を端末装置2から取得し、当該検出結果に基づいて端末装置2の姿勢を算出する。また、端末装置2の姿勢に基づいて決定された表示範囲を表すデータは、表示範囲データ73としてメモリ6に記憶される。
ステップS2において、CPU5は、端末装置2からの操作データを取得し、操作データに基づいて、付加情報(コメント)の入力があるか否かを判定する。すなわち、CPU5は、付加情報(コメント)の入力を受け付ける。付加情報の入力は、例えば、上記"(3−1)付加情報の入力"で述べた方法で行われる。ステップS2の判定結果が肯定である場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定である場合、ステップS3の処理がスキップされてステップS4の処理が実行される。
ステップS3において、CPU5は、入力情報データ74をメモリ6に記憶する。入力情報の記憶は、例えば上記"(3−2)付加情報の記憶"で述べた方法によって行われる。具体的な処理としては、CPU5は、入力情報を表すデータを入力情報データ74としてメモリに記憶する。
ステップS4において、CPU5は履歴情報を記憶する。履歴情報の記憶は、例えば上記"(5−1−1)履歴情報の記憶"で述べた方法によって行われる。具体的な処理としては、CPU5は、メモリ6に記憶されている履歴情報データ75を読み出し、履歴情報データ75が表す履歴情報に対して、現在の入力時間情報と、範囲情報(表示範囲データ)とを追加する。なお、履歴情報データ75が記憶されていない場合には、現在の入力時間情報と、範囲情報(表示範囲データ)とを表すデータを履歴情報データ75としてメモリに記憶する。また、ステップS1〜S6における処理ループ中における任意のステップS4の時点で、履歴情報にユーザ情報が追加される。
ステップS5において、CPU5はパノラマ画像を表示する。本実施形態においては、端末装置2とモニタ4との両方にパノラマ画像が表示される。具体的には、CPU5は、パノラマ動画データ71および表示範囲データ73をメモリ6から読み出し、現在の再生時点に対応するパノラマ画像のうち、ステップS1で決定された表示範囲のパノラマ画像を生成して端末装置2へ出力する。また、現在の再生時点に対応するパノラマ画像のうち、予め定められる表示範囲のパノラマ画像を生成してモニタ4へ出力する。
ステップS6において、CPU5は、パノラマ動画の再生を終了するか否かを判定する。CPU5は、例えば、パノラマ動画の再生が最後まで終了したか、および/または、再生を停止する指示がユーザによって行われたか否かを判定する。ステップS6の判定結果が否定の場合、ステップS1の処理が再度実行される。以降、ステップS1〜S6の一連の処理は、ステップS6で再生を終了すると判定されるまで繰り返し実行される。一方、ステップS6の判定結果が肯定の場合、ステップS7の処理が実行される。
ステップS7において、CPU5は、履歴情報に基づいて、再生終了後に提示すべきオブジェクトを選出する。このオブジェクトの選出は、例えば上記"(5−3)再生終了後における履歴情報に基づく出力"で述べた方法によって行われる。なお、上述したように、提示すべきオブジェクトを選出する処理は、パノラマ動画の再生中に実行されてもよい。また、他の実施形態においては、オブジェクトの選出処理に代えて(あるいは、オブジェクトの選出処理とともに)、CPU5は、履歴情報に基づいて表示範囲を選出する処理を実行してもよい。
ステップS8において、CPU5は、選択されたオブジェクトを含む表示範囲のパノラマ画像を表示装置に表示させる。ステップS8における表示処理は、例えば上記"(5−3)再生終了後における履歴情報に基づく出力"で述べた方法によって行われる。ステップS7の後、CPU5は、図30に示す動画再生処理を終了する。
なお、他の実施形態においては、第1モードの動画再生処理においては、付加情報の入力を受け付ける処理(ステップS2およびS3)と、履歴情報を記憶する処理(ステップS4)とのいずれか一方のみが実行されてもよい。また、履歴情報に基づく出力を行う処理(ステップS7およびS8)が実行されなくてもよい。
(第2モードの再生動作)
図31は、本実施形態において情報処理装置3のCPU5が実行する第2モードの動画再生処理の流れの一例を示すフローチャートである。第2モードの実行が選択された場合、CPU5は、図31に示す処理を実行する。
まずステップS11において、CPU5は、外部の装置から各種の情報を取得する。各種の情報とは、付加情報を含む入力情報、および/または、履歴情報である。CPU5は、上記"(3−4)他のユーザによる付加情報"および"(5−1−3)履歴情報の取得"で述べた方法で各種の情報を取得し、新たな入力情報データ74または履歴情報データ75としてメモリ6に記憶する。
ステップS12において、CPU5は、目標を設定する。例えば上記"(4−1)目標の設定"で述べたように、再生すべきパノラマ動画に設定されている付加情報に対応する位置が目標に設定されてもよい。また、CPU5は、設定された目標を表す目標情報を記憶する。すなわち、CPU5は、上記"(4−2)目標情報の記憶"で述べた方法で目標情報を表すデータをメモリ6に記憶する。
ステップS13において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS13の処理は、上述のステップS1の処理と同じである。
ステップS14において、CPU5は、出力すべきガイド情報を生成する。すなわち、CPU5は、入力情報データ74と、上記目標情報を表すデータとをメモリ6から読み出し、入力情報および目標情報に基づいて、ガイド情報を出力するか否かを判別する。この判別は、上記"(4−3)ガイド情報の出力判別の方法"で述べた方法で行われる。ガイド情報を出力すると判別された場合、CPU5は、"(4−4)ガイド情報の出力態様"で述べた方法でガイド情報(およびユーザ情報)を表す画像(図17に示すガイド画像41)を生成し、画面上において当該画像を表示する位置を決定する。
ステップS15において、CPU5は、出力すべき付加情報を生成する。すなわち、CPU5は、メモリ6から入力情報データ74を読み出し、入力情報に基づいて、付加情報を出力するか否かを判別する。この判別は、上記"(3−3−1)付加情報の出力判別の方法"で述べた方法で行われる。付加情報を出力すると判別された場合、上記"(3−3−2)付加情報の出力態様"および"(3−3−3)付加情報の出力内容"で述べた方法で付加情報(およびユーザ情報)を表す画像(例えばコメント画像32)を生成し、画面上において当該画像を表示する位置を決定する。
ステップS16において、CPU5は、出力すべき履歴関連情報を生成する。すなわち、CPU5は、メモリ6から履歴情報データ75を読み出し、履歴情報に基づいて、履歴関連情報を表す画像を生成する。この画像の生成は、上記"(5−1−2)履歴情報を用いたパノラマ動画の再生"の"(A)履歴関連情報を出力する方法"で述べた方法で行われる。また、CPU5は、画面上において上記画像を表示する位置を決定する。なお、他の実施形態においては、ステップS16において、上記"(5−1−2)履歴情報を用いたパノラマ動画の再生"の"(C)パノラマ動画とともに他の画像を表示する方法"で述べた補助画像が生成されてもよい。このとき、ステップS17においては、パノラマ画像とともに補助画像が表示される。
ステップS17において、CPU5は、上記ガイド情報、付加情報、および履歴関連情報の画像をパノラマ画像とともに表示する。具体的には、CPU5は、パノラマ動画データ71および表示範囲データ73をメモリ6から読み出し、現在の再生時点に対応するパノラマ画像のうち、ステップS13で決定された表示範囲のパノラマ画像を生成する。そして、生成されたパノラマ画像に対して、ステップS14〜S16で生成された画像を重ねた画像を生成し、端末装置2に出力する。なお、ステップS17においてモニタ4にパノラマ動画を表示させる処理は、上記ステップS5と同じである。
ステップS18において、CPU5は、ステップS6と同様の方法で、パノラマ動画の再生を終了するか否かを判定する。ステップS18の判定結果が否定の場合、ステップS13の処理が再度実行される。一方、ステップS18の判定結果が肯定の場合、CPU5は図31に示す動画再生処理を終了する。以降、ステップS13〜S18の一連の処理は、ステップS18で再生を終了すると判定されるまで繰り返し実行される。
なお、他の実施形態においては、第2モードの動画再生処理において、各種情報(付加情報、ガイド情報、および履歴関連情報)のうち、いくつかの情報のみが出力されてもよい。例えば、第2モードの動画再生処理において、各種情報を出力する処理(ステップS14〜S16)のうち、付加情報を出力する処理(ステップS14)のみが実行されてもよいし、付加情報およびガイド情報を出力する処理(ステップS14およびS15)のみが実行されてもよいし、履歴関連情報を出力する処理(ステップS16)のみが実行されてもよい。
(第3モードの再生動作)
図32は、本実施形態において情報処理装置3のCPU5が実行する第3モードの動画再生処理の流れの一例を示すフローチャートである。第3モードの実行が選択された場合、CPU5は、図32に示す処理を実行する。
まずステップS21において、CPU5は、表示範囲の決定に用いる履歴情報を選択する。この履歴情報はどのような方法で選択されてもよく、例えば、ユーザの指示に従って選択される。
ステップS22において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS22で決定される表示範囲は、端末装置2に表示されるパノラマ動画の表示範囲である。ステップS22の処理は、上述のステップS1の処理と同じである。
ステップS23において、CPU5は、ステップS21で選択された履歴情報に基づいて表示範囲を決定する。ステップS22で決定される表示範囲は、モニタ4に表示されるパノラマ動画の表示範囲である。すなわち、CPU5は、選択された履歴情報を表す履歴情報データ75をメモリ6から読み出し、上記"(5−2−2)履歴情報に基づいて決定される表示範囲を再生する方法"で述べた方法で表示範囲を決定する。また、CPU5は、決定された表示範囲を表すデータを表示範囲データ73としてメモリ6に記憶する。
ステップS24において、CPU5はパノラマ画像を表示する。具体的には、CPU5は、パノラマ動画データ71および表示範囲データ73をメモリ6から読み出し、現在の再生時点に対応するパノラマ画像のうち、ステップS23で決定された表示範囲のパノラマ画像を生成してモニタ4へ出力する。このとき、履歴情報に基づく表示範囲のパノラマ画像は、図24に示したように、モニタ4の画面領域の一部に表示されてもよい。なお、ステップS24において端末装置2にパノラマ動画を表示させる処理は、上記ステップS5と同じである。
なお、他の実施形態においては、第3モードの動画再生処理において、付加情報の入力を受け付ける処理(ステップS2およびS3)と、履歴情報を記憶する処理(ステップS4)とのうちいくつかの処理が実行されてもよい。また、第3モードの動画再生処理において、付加情報等の各種情報を出力する処理(ステップS14〜S16)のうちいくつかの処理が実行されてもよい。
(第4モードの再生動作)
図33は、本実施形態において情報処理装置3のCPU5が実行する第4モードの動画再生処理の流れの一例を示すフローチャートである。第4モードの実行が選択された場合、CPU5は、図33に示す処理を実行する。
まずステップS31において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS31の処理は、上述のステップS1の処理と同じである。
ステップS32において、CPU5は、範囲情報を取得する。例えば、CPU5は、上記ステップS31で決定された表示範囲を表す範囲情報を取得する。範囲情報は、例えば上記"(5−2−1)範囲情報の取得"で述べた方法で取得されてもよい。取得された範囲情報を表すデータは、範囲情報データ76としてメモリ6に記憶される。
ステップS33において、CPU5は、パノラマ動画とともに出力すべき、範囲情報に基づく画像(端末装置2の再生内容を反映した画像)を生成する。すなわち、CPU5は、範囲情報データ76をメモリ6から読み出し、範囲情報に基づいて上記画像を生成する。例えば、上記"(5−2−2)範囲情報を用いたパノラマ動画の再生"で述べた画像が生成される。
ステップS34において、CPU5は、端末装置2にパノラマ動画を表示させる。端末装置2にパノラマ動画を表示させる処理は、上記ステップS5と同じである。
ステップS35において、CPU5は、範囲情報に応じて出力内容を変化させてパノラマ動画をモニタ4に表示させる。具体的には、CPU5は、ステップS33で生成された画像をパノラマ画像とともにモニタ4に表示させる。これによって、上記"(5−2−1)範囲情報の取得"で述べた、端末装置2の再生内容を反映した画像がモニタ4に表示される。なお、ステップS35においてパノラマ画像を生成して表示する方法は、上記ステップS5と同じである。
ステップS36において、CPU5は、ステップS6と同様の方法で、パノラマ動画の再生を終了するか否かを判定する。ステップS36の判定結果が否定の場合、ステップS31の処理が再度実行される。一方、ステップS36の判定結果が肯定の場合、CPU5は図33に示す動画再生処理を終了する。以降、ステップS31〜S36の一連の処理は、ステップS36で再生を終了すると判定されるまで繰り返し実行される。
なお、他の実施形態においては、上記第1〜第4モードのうち、いくつかのモードにおける処理は同時に(1つのモード中で)実行されてもよい。例えば、第4モードにおいて、第1モードにおける各種情報の入力処理(ステップS2〜S4)が実行されてもよいし、第2モードにおける各種情報の出力処理(ステップS13〜S16)が実行されてもよい。以上で、情報処理装置3において実行される処理の説明を終了する。
<第2実施形態>
次に、第2の実施形態として、上述の付加情報をパノラマ動画とともに出力するための情報処理システム、情報処理装置、情報処理プログラム、動画表示方法、および制御データのデータ構造について説明する。第2の実施形態では、付加情報をパノラマ動画とともに出力する方法の一例として、制御データを用いる方法について説明する。なお、上記第1の実施形態で述べた上述のコメントやガイド情報や履歴関連情報等の付加情報は、第2の実施形態における制御データを用いて出力されてもよい。
なお、第2の実施形態に係る情報処理システムのハードウェア構成は第1の実施形態と同じであるので、詳細な説明を省略する。
[1.制御データのデータ構造]
まず、第2の実施形態において用いられる制御データについて説明する。第2の実施形態においては、パノラマ動画とともに付加情報を出力する条件等が制御データによって管理され、パノラマ動画の再生中において情報処理システム1は、制御データに従って付加情報を出力する。以下、制御データの詳細なデータ構造について説明する。
図34は、制御データのデータ構造の一例を示す図である。図34に示すように、制御データは、時間条件と、方向条件と、情報処理とを関連づけたデータである。情報処理システム1は、制御データに含まれる時間条件と、制御データに含まれる方向条件とが充足されたか否かを判定する。この判定結果に応じて、情報処理システム1は、制御データにおいて指定される情報処理を実行する。以下、制御データの具体例について説明する。
時間条件は、パノラマ動画の再生時間軸上における時点(再生時点)に関する条件である。時間条件においては、パノラマ動画の再生時間軸上における時点(再生時点)または期間が指定される。つまり、時間条件としては、当該時点または期間を特定可能な情報(「時間情報」と呼ぶ)が制御データ内に格納される。例えば図34においては、制御データは、再生時間軸上における時間T1〜T2の期間を示す時間情報を格納する。なお、例えば、パノラマ動画に登場する所定の対象(例えば図40に示すビル101)に対して付加情報を付す場合には、当該所定の対象が登場する期間を示すように時間情報が設定される。
本実施形態においては、時間条件は、現在の再生時点が、時間情報が表す期間(図34では時間T1〜T2の期間)内に含まれることである。ただし、他の実施形態においては、時間条件は、パノラマ動画の再生時点に関する任意の条件でよく、例えば、現在の再生時点が、時間情報が表す期間内に含まれないことであってもよい。
また、時間情報は、パノラマ動画における時間軸上の時点または期間を特定可能な任意の情報であってよい。例えば、時間情報は、パノラマ動画の再生が開始されてからの経過時点を示す情報であってもよいし、パノラマ動画のフレーム番号を示す情報であってもよい。また、パノラマ動画における視点が時間とともに移動する場合には、時間情報は、当該視点の位置を示す情報であってもよい。つまり、第1の実施形態で述べた入力時間情報と同様の情報を時間情報として用いることができる。
方向条件は、パノラマ動画における(ユーザによって操作される)視線方向に関する条件である。ここで、パノラマ動画における視線方向とは、パノラマ動画のうちで(画面に)表示される領域に対応する視線方向のことである。より具体的には、パノラマ動画における視線方向とは、パノラマ動画の視点から表示装置に表示される領域(パノラマ画像の一部の領域)への方向である。方向条件においては、パノラマ動画における視線方向、あるいは、当該視線方向を含む範囲が指定される。つまり、方向条件としては、当該視線方向あるいは範囲を特定可能な情報(「方向情報」と呼ぶ)が制御データ内に格納される。
図35は、方向情報によって特定される視線方向および範囲の一例を示す図である。第2の実施形態においては、図35に示すように、方向情報は、仮想カメラ22の視線方向(姿勢)を表すベクトル(図35ではベクトルV1)を示す。例えば、パノラマ動画に登場する所定の対象(例えば図40に示すビル101)に対して付加情報を付す場合には、当該所定の対象の方を向く視線方向を表すベクトルを示す方向情報が設定される。なお、第2の実施形態においては、方向条件において指定される範囲は、上記ベクトルを中心とした所定の大きさの範囲(図35に示す範囲A)であると、情報処理システム1において予め定められているものとする。したがって、方向条件は、方向情報によって示されるベクトルV1の方向とその周囲の方向とを含む範囲Aを指定するものである。
なお、方向情報は、方向条件として指定される(視線方向に関する)範囲を特定可能な任意の情報であってよい。例えば、方向情報は、視線方向を表すベクトルと、当該ベクトルを中心とする範囲の大きさを示す情報であってもよい。これによれば、方向情報毎に異なる大きさの範囲を表すことができる。また、方向情報は、視線方向を表すベクトルに限らず、立体モデル21上の位置(視線方向に対応する位置)または範囲を示す情報であってもよいし、パノラマ画像上の位置(視線方向に対応する位置)または範囲を示す情報であってもよい。例えば、方向情報は、仮想カメラ22がある視線方向となる場合における表示範囲を示す情報であってもよい。以上のように、第1の実施形態で述べた範囲情報と同様の情報を方向情報として用いることができる。
図34に示す制御データにおいては、方向条件は、ユーザが操作する視線方向が、方向条件において指定される範囲内に含まれることである。例えば図35に示すように、ユーザが操作する視線方向を表すベクトルVaが、方向条件において指定される範囲A内に含まれない場合には、方向条件が充足されない。一方、上記視線方向を表すベクトルVaが、上記範囲A内に含まれる場合には、方向条件が充足される。なお、他の実施形態においては、方向条件は、ユーザが操作する視線方向に関する任意の条件でよく、例えば後述するガイド情報の例のように、ユーザが操作する視線方向が、方向条件において指定される範囲内に含まれないことであってもよい。
なお、方向条件において指定される範囲Aは、表示範囲よりも小さくてもよいし、同じでもよいし、大きくてもよい。当該範囲Aが表示範囲より小さく設定される場合には、付加情報を付加する対象が単に表示されることを条件とするのではなく、視線方向が対象の方を向いていることを条件として付加情報を出力することができる。また、当該範囲Aが表示範囲より大きく設定される場合には、付加情報を付加する対象が表示されていない場合でも付加情報(例えば付加情報の音)を出力することができる。
なお、制御データにおいて方向条件として指定される視線方向または範囲は、パノラマ動画の再生時間の経過において一定であってもよいし、再生時間の経過に応じて変化してもよい。図34においては、方向情報は、時間T1〜T2の期間において、ベクトルV1からベクトルV2へと一定の割合で変化することを示している。つまり、方向条件として指定される範囲は、時間T1の時点においてはベクトルV1に対応する範囲であり、時間T2の時点においてはベクトルV2に対応する範囲へと変化する。このように、方向条件の範囲を時間に応じて変化するように設定することで、パノラマ動画中に登場する対象の位置が時間経過とともに変化する場合であっても、その対象に対応する範囲となるように方向条件を設定することができる。なお、図34では、方向情報は、時間情報が表す期間の最初と最後の時点におけるベクトルだけを示したが、一定時間毎(例えば1フレーム時間毎)のベクトルを示してもよい。
制御データによって指定される情報処理は、時間条件および方向条件の判定結果に応じて実行すべき情報処理である。図34においては、制御データが指定する情報処理は、コメントを表示させる処理である。制御データが指定する情報処理は、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する任意の処理でよい。上記情報処理は、例えば、上述したガイドや、履歴関連情報や、ボタン画像等を表示(出力)する処理であってもよい。つまり、情報処理システム1は、ガイドや履歴関連情報やボタン画像をパノラマ動画に付加して表示する場合にも、制御データを用いることができる。また、上記情報処理は、パノラマ動画に画像を追加する処理(例えば、パノラマ動画に登場する人物に落書き等の画像を付加する処理)でもよい。また、上記情報処理は、ユーザが認識可能な任意の方法でユーザに対して出力を行うものであればよい。例えば上記情報処理は、画像を表示(出力)する処理に限らず、音声を出力する処理であってもよい。例えばユーザが把持する入力装置(ここでは端末装置2)が振動機能を有する場合、上記情報処理は、振動出力を行う(例えば入力装置を振動させる)処理であってもよい。上記情報処理は、画像出力、音出力、および、振動出力のうちのいくつかを組み合わせて出力する処理であってもよい。
本実施形態においては、制御データは、上記情報処理が記述されたプログラムを含むスクリプトデータとして提供される。すなわち、制御データは、時間条件と、方向条件と、情報処理(より具体的には、情報処理の内容が記述されたプログラム)とを関連づけたデータである。これによれば、パノラマ動画の再生中において実行すべき情報処理とそれを実行する条件とに関する情報を1つの制御データとして提供できるので、当該情報の取り扱いが容易になる。また、情報処理システム1は、パノラマ動画に付加情報を付加して出力する情報処理を制御データによって容易に実行することができる。なお、他の実施形態においては、制御データは、方向条件と時間条件と情報処理の内容とを関連づけるデータであってもよく、情報処理の内容が記述されたプログラムを含まない形式であってもよい。このとき、時間条件および方向条件に応じて実行される情報処理のプログラムは、情報処理システム1内の記憶部(例えばメモリ6等)に記憶される。
[2.制御データを用いた処理の一例]
次に、制御データを用いて付加情報(例えばコメント)を出力する処理の一例について説明する。図36は、第2の実施形態における情報処理の大まかな流れの一例を示すフローチャートである。図36は、パノラマ動画の再生時において実行される情報処理を示している。
図36に示すステップS51において、情報処理システム1は、パノラマ動画の再生時に用いる制御データを取得する。本実施形態においては、制御データの取得処理は、パノラマ動画の再生を開始する前に実行される。制御データは、パノラマ動画とともに情報処理システム1に取得されてもよいし、パノラマ動画とは別に情報処理システム1に取得されてもよい。例えば、パノラマ動画がインターネット等のネットワークを介して外部の装置から情報処理システム1に取得される場合に、パノラマ動画とともに1以上の制御データが取得されてもよい。また例えば、上述のコメントがパノラマ動画の再生中に入力される場合に、コメントの入力に応じて制御データが生成されてもよい。このとき、例えば上記ステップS3の処理において再生中のパノラマ動画に関連づけて制御データがメモリに記憶され、ステップS51においてメモリから制御データが読み出されてもよい。
ステップS51の後のステップS52〜S56の処理は、パノラマ動画の再生中に実行される。ステップS52において、情報処理システム1は、パノラマ動画のうちで、端末装置2に対する入力に応じて決定される視線方向に対応する視野範囲(表示範囲)の画像を端末装置2のLCD11に表示させる。ステップS52の処理は、第1の実施形態におけるステップS1の処理と同様である。
また、パノラマ動画の再生中において、情報処理システム1は、制御データにより特定される時間条件および方向条件が充足されるか否かをそれぞれ判定する。すなわち、ステップS52の次のステップS53において、情報処理システム1は、再生中のパノラマ動画の現在の再生時点について、制御データに含まれる時間条件が充足されるか否かを判定する。例えば、情報処理システム1は、現在の再生時点が、時間情報が表す期間内に含まれるか否かを判定する。
ステップS53において時間条件が充足されると判定される場合、ステップS54において方向条件がさらに判定される。すなわち、ステップS54において、情報処理システム1は、端末装置2に対する入力に応じて決定される現在の視線方向について、制御データに含まれる方向条件が充足されるか否かを判定する。例えば、情報処理システム1は、現在の視線方向が、方向情報によって特定される範囲内に含まれるか否かを判定する。なお、現在の視線方向は、上記ステップS52で決定された視線方向である。
上記時間条件および方向条件の判定結果に応じて、情報処理システム1は、制御データにより特定される情報処理を実行する。本実施形態においては、上記ステップS53において時間条件が充足され、かつ、上記ステップS54において方向条件が充足されると判定される場合、ステップS55において、上記情報処理が実行される。すなわち、ステップS55において、情報処理システム1は、制御データにおいて指定される、付加情報を出力するための情報処理の実行を開始する。すなわち、情報処理システム1は、制御データに含まれるプログラムを用いて(当該プログラムを実行することによって)上記情報処理を実行する。
なお、情報処理システム1は、ステップS55のタイミングで情報処理の実行を開始すればよく、情報処理を終了するタイミングは任意である。本実施形態においては、時間条件および方向条件が充足される間、付加情報が出力されるものとするが、他の実施形態においては、開始から一定時間が経過した後で付加情報の出力が終了してもよいし、パノラマ動画の再生が終了するまで付加情報が継続して出力されてもよい。
ステップS56において、情報処理システム1は、ステップS52で決定された表示範囲のパノラマ画像を端末装置2のLCD11に表示する。このとき、上記ステップS55において付加情報を出力する情報処理が実行された場合には、パノラマ動画とともに付加情報が出力される。なお、詳細は後述するが、本実施形態においては、上記ステップS52〜S56の一連の処理は、パノラマ動画の再生中において所定時間(1フレーム時間)に1回の割合で繰り返し実行される(図45参照)。
以上によって、例えばパノラマ動画に登場する所定の対象(例えば図40に示すビル101)に対して、適切なタイミングで付加情報(コメント等)を付加することができる。例えばパノラマ動画に所定の対象が登場する時間帯であって(ステップS53:YES)、かつ、ユーザが操作する視線方向が当該所定の対象の方を向いている場合(ステップS54:YES)に、当該所定の対象に対して付加情報(コメント等)が付加されることとなる(ステップS55)。なお、ステップS53において時間条件が充足されないと判定される場合、または、ステップS54において方向条件が充足されないと判定される場合、ステップS55の処理は実行されない。つまり、例えばパノラマ動画に上記所定の対象(例えば図40に示すビル101)が登場しない時間帯である場合、または、ユーザが操作する視線方向が当該所定の対象の方を向いていない場合には、付加情報が出力されない。
図37および図38は、方向条件が充足されたタイミングと、情報処理が実行されるタイミングの関係の一例を示す図である。なお、図37および図38の説明においては、制御データにおける時間条件は、パノラマ動画の再生時間軸上における時間Ta〜Tbの期間を指定するものとする。
図37は、制御データにおける方向条件が、パノラマ動画の再生時間軸上における時間Ts1に充足された場合を示している。この場合、付加情報を出力する情報処理は、時間Ts1に実行が開始され、付加情報(コメント等)は時間Ts1から出力される。なお、本実施形態においては、時間条件および方向条件の両方が充足される間、付加情報が出力される。
一方、図38は、時間Ts2に方向条件が充足された場合を示す。時間Ts2は、図37に示す時間Ts1よりも遅い時間である。この場合、付加情報を出力する情報処理は、時間Ts2に実行が開始されるので、付加情報(コメント等)は時間Ts2から出力される。
図37および図38から明らかなように、情報処理システム1は、再生中のパノラマ動画の再生時点が、時間条件において指定される期間内となる場合において、ユーザ入力に応じて決定される視線方向が、方向条件において指定される範囲内に含まれたことに応じて、情報処理の実行を開始する。したがって、付加情報は、時間条件が充足される期間中において、方向条件が充足されたタイミングで付加情報が出力される。情報処理システム1は、時間が到来すれば自動的に付加情報を提示するのではなく、例えば、視線方向が対象の方向を向いたタイミングや、その対象が表示範囲に含まれたタイミングで付加情報の提示を開始することができる。上述したように、パノラマ動画は、一画面内に収まらない領域を有する動画であるので、付加情報を付加する対象をユーザが見るタイミング、あるいは、対象が表示範囲に含まれるタイミングは不確定である。これに対して、本実施形態によれば、時間条件および方向条件を用いて付加情報の出力タイミングを判定するので、ユーザにとって適切なタイミングで付加情報を出力することができる。
以上のように、第2の実施形態においては、情報処理システム1は、時間条件と方向条件とを含む制御データを取得し(ステップS51)、時間条件および方向条件の判定結果に応じて、再生中のパノラマ動画とともに画像および/または音を出力することに関する所定の情報処理を実行する(ステップS53〜S55)。これによれば、パノラマ動画とともに付加的な情報をユーザに提示することができる。また、制御データを用いて時間条件および方向条件を設定することによって、情報を提示する条件やタイミングを容易に設定することができる。
[3.制御データを用いる具体例]
上記制御データを用いることによって、情報処理システム1は、種々の形態でパノラマ動画とともに情報を提示することができる。以下、制御データを用いて情報を提示するいくつかの具体例について説明する。
(3−1:コメント)
第1の実施形態で述べたコメントをパノラマ動画に付加する場合にも、上記制御データを利用することができる。この場合、情報処理システム1は、時間情報として、上述の入力時間情報により特定される出力期間を示す情報を設定する。また、情報処理システム1は、方向情報として上述の入力範囲情報を設定する。また、情報処理システム1は、制御データにおいて指定される情報処理として、入力範囲情報により特定される位置にコメントを表示する処理を設定する。以上のように時間条件、方向条件、および情報処理を設定した制御データを生成し、上記ステップS51〜S56の処理を実行することによって、コメントを付加してパノラマ動画を再生することができる。
なお、上記第1の実施形態のように、コメントを付す対象が表示範囲内に含まれることを条件としてコメントを出力する場合には、ユーザが操作する視線方向によって決められる表示範囲と、方向情報により特定される方向との関係に基づいて方向条件を判定するようにすればよい。すなわち、情報処理システム1は、表示範囲と、方向条件において指定される範囲とが重複する否かによって、方向条件が充足されるか否かを判定してもよい。これによれば、方向条件に対応する対象(コメントを付す対象)が表示範囲に含まれるか否かによって付加情報(コメント)の出力を切り替えることができる。
(3−2:ガイド)
第1の実施形態で述べたガイド情報をパノラマ動画に付加する場合にも、上記制御データを利用することができる。この場合、情報処理システム1は、例えば以下に示す制御データを用いるようにしてもよい。
図39は、ガイド情報を出力するための制御データのデータ構造の一例を示す図である。図39に示す具体例においては、制御データは、上述した時間条件、方向条件、および情報処理を含む。本具体例においては、時間条件は、パノラマ動画の再生時点が、ガイド情報の目標(上記“[4.ガイドの出力]”参照)が登場する期間(図39では時間T1〜T2)内に含まれることである。また、方向条件は、ユーザが操作する視線方向が、当該目標の方を向く視線方向(図39ではベクトルV1〜V2)を含む所定の範囲内に含まれることである。また、制御データにおいて指定される情報処理は、ガイド画像を表示する情報処理である。
また、本具体例においては、制御データは実行条件を含む(図39参照)。実行条件は、方向条件が充足された場合に情報処理を実行するか、方向条件が充足されない場合に情報処理を実行するかを表す。本具体例では、方向条件に対して、その方向条件が充足されない場合に情報処理を実行することを示す実行条件(図39では、「条件非充足」と記載する)が関連づけられる。したがって、方向条件が充足されない場合、すなわち、ユーザが操作する視線方向が上記目標の方を向いていない場合に、ガイド情報を出力するための情報処理が実行される。
上記のように、実行条件を設定することによって、現在の視線方向が方向情報により表される範囲の外を向くことを条件として付加情報を出力することができる。つまり、実行条件は、方向条件の内容(方向情報)を変更する機能を有すると言え、実行条件を用いることによって、方向条件の内容をより容易に設定することができる。なお、他の実施形態においては、実行条件を用いることに代えて、方向条件の内容を変更しても良い。例えば、上記具体例における方向情報が表す範囲以外の範囲を表すように方向情報を変更することによって、図39に示す方向条件と同様の条件を設定することができる。
図39に示す制御データを用いることによって、パノラマ動画の再生中において適切なタイミングでガイド情報を出力することができる。すなわち、視線方向が目標の方を向いている場合には、方向条件が充足されると判定される結果、ガイド画像は表示されず、視線方向が目標の方を向いていない場合には、方向条件が充足されないと判定される結果、ガイド画像は表示されることとなる。なお、ここでは、方向条件は、方向情報が示すベクトルを中心とした、表示範囲以上の大きさの範囲を指定するものとする。これによって、目標が表示範囲内に含まれない場合(つまり、目標が画面に表示されない場合)に、ガイド画像を表示することができる。
なお、本具体例においては、制御データは、方向条件に対応する対象(目標)が表示範囲に含まれない場合にガイド画像を表示する。したがって、上記コメントを出力する場合とは異なり、方向条件に対応する対象の位置(あるいは対象の位置によって決められる位置)に画像を表示することができない。そこで、本具体例においては、制御データに含まれる情報処理において、ガイド画像を表示する位置を指定する。つまり、制御データは、情報処理によって画像を表示する位置を指定する表示位置情報をさらに含む。そして、情報処理システム1は、制御データに含まれる表示位置情報によって指定される位置にガイド画像を表示する。これによって、方向条件に対応する対象の位置に付加情報の画像を表示することができない場合であっても、適切な位置に画像を表示することができる。
なお、表示位置情報が示す位置は、画像を表示する位置を特定可能な任意の情報でよく、画面上の位置であってもよいし、パノラマ画像上における位置であってもよいし、上述の立体モデル21の内側面上における位置であってもよい。
(3−3:視線方向を向けたことに応じて変化するバルーン)
情報処理システム1は、制御データを用いて、付加情報の出力形態(表示形態)を変化させることも可能である。図40および図41は、付加情報の表示形態が変化する場合のパノラマ動画の一例を示す図である。図40および図41においては、パノラマ動画に登場するビル101に対して、表示形態が変化する付加情報を付加する場合を例として説明する。
図40は、付加情報の表示形態が変化する前のパノラマ動画の一例を示す図である。図40においては、付加情報を付加する対象であるビル101は、表示範囲の端に位置する状態であり、画面の端に表示されている。この状態では、付加情報としてバルーン102が表示される。ここでは、バルーン102は、ビル101にコメントが付されていることをユーザに通知する目的で提示される。
一方、図41は、付加情報の表示形態が変化した後のパノラマ動画の一例を示す図である。図41においては、ビル101は仮想カメラ22の視線方向(すなわち、表示範囲の中央付近)に位置する状態であり、画面の中央に表示されている。この状態では、バルーン102に変えて、コメント103が表示される。つまり、視線方向がビル101の方を向くことに応じて、バルーン102がコメント103へと表示形態を変化させる。このように、視線方向が対象の方を向いているか否かに応じて表示形態を変化させるようにしてもよい。
図40および図41に示したような出力形態の変化は、例えば以下に示すデータ構造の制御データを用いて実現することができる。図42は、付加情報の出力形態を変化させるための制御データのデータ構造の一例を示す図である。図42に示す具体例においては、制御データは、上述した時間情報、方向情報、および情報処理を含む。本具体例においては、時間条件は、現在の再生時点が、バルーン102またはコメント103を付加する対象(ビル101)が登場する期間内に含まれることである。また、方向条件は、ユーザが操作する視線方向が、当該対象の方を向く視線方向を含む所定の範囲内に含まれることである。
また、本具体例における制御データは、上述の実行条件を含む。本具体例では、1つの方向条件に対して、方向条件が充足された場合に情報処理を実行することを示す実行条件(図42では、「条件充足」と記載する)と、方向条件が充足されない場合に情報処理を実行することを示す実行条件(図42では、「条件非充足」と記載する)という2つの実行条件が関連づけられる。
また、本具体例における制御データにおいては、設定される2つの実行条件のそれぞれに、互いに異なる情報処理が関連づけられる。これら2つの情報処理は、付加情報の表示形態が異なり、表示位置は同じ位置(上記対象の位置)である。具体的には、「条件非充足」を示す実行条件に対して、バルーンを表示する情報処理が関連づけられ、「条件充足」を示す実行条件に対して、コメントを表示する情報処理が関連づけられる。
図42に示す制御データを用いることによって、視線方向に応じて表示形態が変化する付加情報を出力することができる。すなわち、視線方向がビル101の方を向かない場合には、方向条件が充足されないと判定される結果、ビル101にバルーンが付加して表示され(図40)、視線方向がビル101の方を向く場合には、方向条件が充足されると判定される結果、ビル101にコメントが付加して表示される(図41)。なお、本具体例においては、方向条件によって指定される範囲は、表示装置に表示されるパノラマ動画の表示範囲よりも小さいものとする。これによって、ビル101が単に表示範囲に含まれたことを条件とするのではなく、ユーザがビル101に注目した(すなわち、視線方向がビル101の方を向いた)ことを条件として、コメントを表示することができる。
以上のように、制御データにおいて複数の方向条件(あるいは実行条件)を設定し、方向条件毎に出力形態が異なる情報処理を関連づけることによって、視線方向に応じて出力形態が変化するように付加情報を出力することができる。
(3−4:ユーザの入力に応じて変化するバルーン)
情報処理システム1は、制御データを用いて、図40に示したバルーンをユーザ入力に応じて変化させるようにすることも可能である。例えば追加条件を含む制御データを用いることによって、ユーザ入力に応じて付加情報の出力形態を変化させることができる。
図43は、追加条件を含む制御データのデータ構造の一例を示す図である。図43に示す具体例においては、制御データは、上述の時間条件、方向条件および情報処理を含む。これらの情報は、図42に示す制御データと同様である。
本具体例においては、制御データは、追加条件をさらに含む。追加条件は、付加情報を出力するための条件として、時間条件および方向条件に追加される条件である。追加条件の内容は任意であるが、本具体例では、追加条件は、ユーザによる所定の入力(例えば、端末装置2の所定のボタンを押下する操作)があったこと、あるいは、ユーザによる所定の入力がないこと、である。本具体例では、1つの方向条件に対して、ユーザによる所定の入力があったことを示す追加条件(図43では、「ユーザ入力有」と記載する)と、ユーザによる所定の入力がないことを示す追加条件(図43では、「ユーザ入力無」と記載する)という2つの追加条件が関連づけられる。
また、図43に示す制御データにおいては、設定される2つの追加条件のそれぞれに、互いに異なる情報処理が関連づけられる。これら2つの情報処理は、図42に示す制御データにおける情報処理と同様である。
図43に示す制御データを用いることによって、ユーザ入力に応じて表示形態が変化する付加情報を出力することができる。すなわち、時間条件および方向条件が充足される前提において、ユーザ入力が行われていない場合には、「ユーザ入力無」という追加条件が充足される結果、対象(ビル101)にバルーンが付加して表示され、ユーザ入力が行われた場合には、「ユーザ入力有」という追加条件が充足される結果、対象(ビル101)にコメントが付加して表示される。
以上のように、制御データにおいて追加条件を設定することで、時間条件および方向条件とは独立した別の条件を考慮して付加情報を出力することができる。また、制御データにおいて複数の追加条件を設定し、追加条件毎に出力形態が異なる情報処理を関連づけることによって、追加条件(例えばユーザ入力の有無)に応じて出力形態が変化するように付加情報を出力することができる。
なお、他の実施形態においては、情報処理システム1は、実行条件と追加条件との両方を含む制御データを用いるようにしてもよい。これによって、例えば、ある対象について付加情報を付加する場合において、視線方向が対象の方を向いていない場合には通常のバルーンを表示し、視線方向が対象の方を向いた場合にバルーンの色や形状を変化させて表示し、さらに、ユーザが所定の入力を行ったことに応じてコメントを表示させる、といったことが可能になる。
(3−5:追加制御データ)
また、情報処理システム1は、パノラマ動画とともに付加情報を出力するために、上記の制御データに加えて、方向条件を含まない制御データ(以下「追加制御データ」と呼ぶ)を用いてもよい。図44は、追加制御データのデータ構造の一例を示す図である。図44に示すように、追加制御データは、時間条件と情報処理を含み、方向条件を含まない。なお、追加制御データにおける時間条件の内容は制御データと同様である。また、追加制御データにおいて指定される情報処理は制御データと同様である。ただし、当該情報処理が画像を表示する内容である場合、追加制御データには上記表示位置情報が含まれる。
追加制御データを用いる場合、情報処理システム1は、再生中のパノラマ動画の再生時点について、追加制御データに含まれる時間条件が充足されるか否かを判定する。そして、追加制御データに含まれる時間条件の判定結果に応じて、追加制御データにおいて指定される情報処理を実行する。したがって、追加制御データにおいて指定される情報処理は、ユーザが操作する視線方向に関わらず、時間情報により特定される期間が到来すれば実行される。
上記追加制御データによれば、ユーザが操作する視線方向とは独立して付加情報を出力することができる。例えば、一定の時間が到来した場合には常に所定の音声を出力する場合には、追加制御データを用いることによって容易に付加情報を出力することができる。制御データに加えて追加制御データを用いることによって、付加情報の出力制御をより多彩な方法で行うことができる。
[4.第2の実施形態における具体的な処理例]
以下、図45を参照して、本実施形態に係る情報処理システム1の具体的な動画再生処理の一例を説明する。図45は、第2の実施形態において情報処理装置3のCPU5が実行する動画再生処理の流れの一例を示すフローチャートである。図45に示すフローチャートは、図36に示す処理をより具体的な処理例に適用した場合における処理の流れを示す。第2の実施形態においても上記第1の実施形態と同様、情報処理装置3のCPU5によって所定の情報処理プログラムが実行されることによって、図45に示す一連の処理が実行される。
まずステップS61において、CPU5は、パノラマ動画の再生時に用いる制御データを取得する。制御データの取得方法は上記ステップS51で述べた方法と同様である。CPU5は、取得した制御データをメモリ6に記憶する。ステップS61の次にステップS62の処理が実行される。パノラマ動画の再生中においては、ステップS62〜70の処理が繰り返し実行される。
ステップS62において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS62の処理は、上述したステップS1あるいはS52の処理と同様である。ステップS62の次にステップS63の処理が実行される。
ステップS63において、CPU5は、時間条件が充足されるか否かを判定する。ステップS63の処理は上記ステップS53の処理と同様である。ステップS63の判定結果が肯定である場合、ステップS64の処理が実行される。一方、ステップS63の判定結果が否定である場合、後述するステップS69の処理が実行される。
ステップS64において、CPU5は、追加条件が充足されるか否かを判定する。すなわち、CPU5は、メモリ6に記憶されている制御データを参照し、制御データに含まれる追加条件が充足されるか否かを判定する。ステップS64の判定結果が肯定である場合、ステップS65の処理が実行される。一方、ステップS64の判定結果が否定である場合、後述するステップS69の処理が実行される。なお、本実施形態においては、制御データに追加条件が含まれない場合には、上記ステップS64の処理はスキップされる。この場合、ステップS63の判定結果が肯定である場合、ステップS65の処理が実行される。
ステップS65において、CPU5は、方向条件が充足されるか否かを判定する。ステップS65の処理は上記ステップS54の処理と同様である。ステップS65の判定結果が肯定である場合、ステップS66の処理が実行される。一方、ステップS65の判定結果が否定である場合、後述するステップS67の処理が実行される。
ステップS66において、CPU5は、メモリ6に記憶されている制御データに含まれる実行条件を参照し、方向条件が充足される場合に情報処理を実行するか否かを判定する。ステップS66の判定結果が肯定である場合、ステップS68の処理が実行される。一方、ステップS66の判定結果が否定である場合、後述するステップS69の処理が実行される。
ステップS67において、CPU5は、メモリ6に記憶されている制御データに含まれる実行条件を参照し、方向条件が充足されない場合に情報処理を実行するか否かを判定する。ステップS67の判定結果が肯定である場合、ステップS68の処理が実行される。一方、ステップS67の判定結果が否定である場合、後述するステップS69の処理が実行される。
なお、本実施形態においては、制御データに実行条件が含まれない場合には、上記ステップS66およびS67の処理はスキップされる。この場合、CPU5は、方向条件が充足される場合に情報処理を実行するものと判断する。具体的には、ステップS65の判定結果が肯定である場合、ステップS68の処理が実行され、ステップS65の判定結果が否定である場合、後述するステップS69の処理が実行される。
ステップS68において、CPU5は、制御データにおいて指定される情報処理の実行を開始する。ステップS68の処理は上記ステップS55と同様である。なお、制御データにおいて複数の情報処理が含まれる場合(例えば図42および図43に示す場合)には、充足された条件に関連づけられる情報処理が実行される。ステップS68の次にステップS69の処理が実行される。
ステップS69において、CPU5は、ステップS62で決定された表示範囲のパノラマ画像を端末装置2のLCD11に表示する。このとき、上記ステップS68において付加情報を出力する情報処理が実行された場合には、パノラマ動画とともに付加情報が出力される。ステップS69の次にステップS70の処理が実行される。
ステップS70において、CPU5は、ステップS6と同様の方法で、パノラマ動画の再生を終了するか否かを判定する。ステップS70の判定結果が否定の場合、ステップS62の処理が再度実行される。一方、ステップS70の判定結果が肯定の場合、CPU5は図45に示す動画再生処理を終了する。以降、ステップS62〜S70の一連の処理は、ステップS70で再生を終了すると判定されるまで繰り返し実行される。
なお、上記動画再生処理において、(1つの付加情報に関する制御データを1つとして)制御データが複数存在する場合、CPU5は、上記ステップS63〜S68の一連の処理を制御データ毎に実行する。これによって、複数の付加情報を同時に出力することが可能である。
また、追加制御データが存在する場合、CPU5は、上記ステップS63、S68、およびS69の処理を追加制御データについて実行する。このとき、ステップS63の判定結果が肯定である場合、ステップS68の処理が実行され、ステップS63の判定結果が否定である場合、ステップS69の処理が実行される。
<変形例>
上記第1および第2の実施形態においては、情報処理システム1が複数の装置(情報処理装置)によって構成される場合を例として説明したが、情報処理システムは、単一の情報処理装置(例えば携帯型あるいは可搬型の情報処理装置)で構成されてもよい。また、他の実施形態においては、情報処理システム1あるいは情報処理装置3の機能が複数の装置によって実現されてもよい。例えば、他の実施形態においては、情報処理装置3において実行される情報処理の少なくとも一部が、ネットワーク(広域ネットワークおよび/またはローカルネットワーク)によって通信可能な複数の装置によって分散して実行されてもよい。また、情報処理装置3において実行される情報処理の少なくとも一部は、端末装置2によって実行されてもよい。
上記第2の実施形態においては、パノラマ動画を再生する場合において制御データが用いられる例として説明した。ここで、他の実施形態においては、パノラマ画像(静止画)を再生(表示)する場合において制御データを用いることも可能である。なお、静止画であるパノラマ画像を表示する場合には、制御データは、時間条件を含まず、方向条件を含むものでよい。また、静止画であるパノラマ画像を表示する場合であっても、パノラマ画像の表示開始からの経過時間を再生時間とすることによって、時間条件および方向条件を含む制御データを当該パノラマ画像の表示に用いることができる。
以上のように、本発明は、パノラマ画像を再生する際により多くの情報をユーザに提示すること等を目的として、情報処理システムや情報処理プログラムとして利用することができる。
1 情報処理システム
2 端末装置
3 情報処理装置
4 モニタ
5 CPU
6 メモリ
21 立体モデル
22 仮想カメラ
32 コメント画像
35 バー
41,45,46,47 ガイド画像
55,56,61,65 パノラマ動画
62 マップ画像
63 視点画像
102 バルーン
103 コメント

Claims (14)

  1. パノラマ動画の一部の領域を表示装置に表示する情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    前記パノラマ動画について、当該パノラマ動画の再生時間軸上における時間に関する時間条件と、当該パノラマ動画のうちの表示される領域に対応する視線方向に関する方向条件とを含む制御データを取得する取得手段と、
    前記パノラマ動画のうちで、所定の入力装置に対する第1の入力に応じて決定される視線方向に対応する視野範囲の画像を前記表示装置に表示させる表示制御手段と、
    前記表示装置において再生中の前記パノラマ動画の再生時点について、前記制御データに含まれる時間条件が充足されるか否かを判定する時間条件判定手段と、
    前記第1の入力に応じて決定される視線方向について、前記制御データに含まれる方向条件が充足されるか否かを判定する方向条件判定手段と、
    前記時間条件および前記方向条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行する処理実行手段として前記コンピュータを機能させ、
    前記制御データは、前記第1の入力とは異なる第2の入力に関する追加条件をさらに含み、
    前記処理実行手段は、前記追加条件に基づいて、前記パノラマ動画の再生中における前記ユーザによる前記第2の入力に応じて前記ユーザに対する出力の形態が変化するように前記情報処理を実行する、情報処理プログラム。
  2. 前記時間条件は、再生中の前記パノラマ動画の再生時点が、前記時間条件において指定される期間内に含まれることである、請求項1に記載の情報処理プログラム。
  3. 前記方向条件は、前記第1の入力に応じて決定される視線方向が、前記方向条件において指定される範囲内に含まれることである、請求項1または請求項2に記載の情報処理プログラム。
  4. 前記方向条件において指定される範囲は、前記表示装置に表示されるパノラマ動画の視野範囲よりも小さく、
    前記処理実行手段は、再生中の前記パノラマ動画の再生時点が、前記時間条件において指定される期間内となる場合において、前記第1の入力に応じて決定される視線方向が、前記方向条件において指定される範囲内に含まれたことに応じて、前記所定の情報処理の実行を開始する、請求項3に記載の情報処理プログラム。
  5. 前記方向条件判定手段は、前記第1の入力に応じて決定される視線方向が、前記方向条件において指定される範囲内に含まれないことを前記方向条件とする、請求項1または請求項2に記載の情報処理プログラム。
  6. 前記方向条件判定手段は、前記視線方向によって決められる前記表示装置における表示範囲と、前記制御データに含まれる方向条件において指定される範囲とが重複するか否かによって、前記方向条件が充足されるか否かを判定する、請求項1から請求項5のいずれか1項に記載の情報処理プログラム。
  7. 前記制御データは、前記時間条件と、前記方向条件と、当該時間条件および当該方向条件が充足された場合に実行すべき情報処理とを関連づけたデータである、請求項1から請求項6のいずれか1項に記載の情報処理プログラム。
  8. 前記制御データは、前記時間条件が充足されかつ前記方向条件が充足された場合に前記情報処理を実行するか、それとも、前記時間条件が充足されかつ前記方向条件が充足されない場合に前記情報処理を実行するかを示す実行条件をさらに含む、請求項7に記載の情報処理プログラム。
  9. 前記制御データは、前記所定の情報処理によって画像を表示する位置を指定する表示位置情報をさらに含み、
    前記処理実行手段は、前記制御データに含まれる表示位置情報によって指定される位置に画像を表示する情報処理を実行する、請求項7に記載の情報処理プログラム。
  10. 前記処理実行手段は、前記時間条件および前記方向条件が充足されたことに応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行う処理を開始する、請求項1から請求項9のいずれか1項に記載の情報処理プログラム。
  11. 前記取得手段は、前記表示装置において再生されるべきパノラマ動画について、前記時間条件を含み、かつ、前記方向条件を含まない追加制御データをさらに取得し、
    前記時間条件判定手段は、再生中の前記パノラマ動画の再生時点と、前記追加制御データに含まれる時間条件をさらに判定し、
    前記処理実行手段は、前記追加制御データに含まれる前記時間条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行する、請求項1から請求項10のいずれか1項に記載の情報処理プログラム。
  12. パノラマ動画の一部の領域を表示装置に表示する情報処理装置であって、
    前記パノラマ動画について、当該パノラマ動画の再生時間軸上における時間に関する時間条件と、当該パノラマ動画のうちの表示される領域に対応する視線方向に関する方向条件とを含む制御データを取得する取得部と、
    前記パノラマ動画のうちで、所定の入力装置に対する第1の入力に応じて決定される視線方向に対応する視野範囲の画像を前記表示装置に表示させる表示制御部と、
    前記表示装置において再生中の前記パノラマ動画の再生時点について、前記制御データに含まれる時間条件が充足されるか否かを判定する時間条件判定部と、
    前記第1の入力に応じて決定される視線方向について、前記制御データに含まれる方向条件が充足されるか否かを判定する方向条件判定部と、
    前記時間条件および前記方向条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行する処理実行部とを備え、
    前記制御データは、前記第1の入力とは異なる第2の入力に関する追加条件をさらに含み、
    前記処理実行部は、前記追加条件に基づいて、前記パノラマ動画の再生中における前記ユーザによる前記第2の入力に応じて前記ユーザに対する出力の形態が変化するように前記情報処理を実行する、情報処理装置。
  13. パノラマ動画の一部の領域を表示装置に表示する情報処理システムであって、
    前記パノラマ動画について、当該パノラマ動画の再生時間軸上における時間に関する時間条件と、当該パノラマ動画のうちの表示される領域に対応する視線方向に関する方向条件とを含む制御データを取得する取得部と、
    前記パノラマ動画のうちで、所定の入力装置に対する第1の入力に応じて決定される視線方向に対応する視野範囲の画像を前記表示装置に表示させる表示制御部と、
    前記表示装置において再生中の前記パノラマ動画の再生時点について、前記制御データに含まれる時間条件が充足されるか否かを判定する時間条件判定部と、
    前記第1の入力に応じて決定される視線方向について、前記制御データに含まれる方向条件が充足されるか否かを判定する方向条件判定部と、
    前記時間条件および前記方向条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行する処理実行部とを備え、
    前記制御データは、前記第1の入力とは異なる第2の入力に関する追加条件をさらに含み、
    前記処理実行部は、前記追加条件に基づいて、前記パノラマ動画の再生中における前記ユーザによる前記第2の入力に応じて前記ユーザに対する出力の形態が変化するように前記情報処理を実行する、情報処理システム。
  14. パノラマ動画の一部の領域を表示装置に表示するパノラマ動画表示方法であって、
    前記パノラマ動画について、当該パノラマ動画の再生時間軸上における時間に関する時間条件と、当該パノラマ動画のうちの表示される領域に対応する視線方向に関する方向条件とを含む制御データを取得する取得ステップと、
    前記パノラマ動画のうちで、所定の入力装置に対する第1の入力に応じて決定される視線方向に対応する視野範囲の画像を前記表示装置に表示させる表示制御ステップと、
    前記表示装置において再生中の前記パノラマ動画の再生時点について、前記制御データに含まれる時間条件が充足されるか否かを判定する時間条件判定ステップと、
    前記第1の入力に応じて決定される視線方向について、前記制御データに含まれる方向条件が充足されるか否かを判定する方向条件判定ステップと、
    前記時間条件および前記方向条件の判定結果に応じて、再生中のパノラマ動画に合わせてユーザに対する出力を行うことに関する所定の情報処理を実行する処理実行ステップとを備え、
    前記制御データは、前記第1の入力とは異なる第2の入力に関する追加条件をさらに含み、
    前記処理実行ステップにおいては、前記追加条件に基づいて、前記パノラマ動画の再生中における前記ユーザによる前記第2の入力に応じて前記ユーザに対する出力の形態が変化するように前記情報処理を実行する、パノラマ動画表示方法。
JP2013055316A 2013-03-18 2013-03-18 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法 Active JP6548203B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013055316A JP6548203B2 (ja) 2013-03-18 2013-03-18 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法
US14/027,832 US9094655B2 (en) 2013-03-18 2013-09-16 Storage medium storing information processing program, information processing device, information processing system, panoramic video display method, and storage medium storing control data
EP13184736.0A EP2782333B1 (en) 2013-03-18 2013-09-17 Partial area rendering in a panoramic video, with time range and view direction control data for display of annotations.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013055316A JP6548203B2 (ja) 2013-03-18 2013-03-18 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法

Publications (2)

Publication Number Publication Date
JP2014183380A JP2014183380A (ja) 2014-09-29
JP6548203B2 true JP6548203B2 (ja) 2019-07-24

Family

ID=49230522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013055316A Active JP6548203B2 (ja) 2013-03-18 2013-03-18 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法

Country Status (3)

Country Link
US (1) US9094655B2 (ja)
EP (1) EP2782333B1 (ja)
JP (1) JP6548203B2 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102089614B1 (ko) * 2013-08-28 2020-04-14 삼성전자주식회사 구면 파노라마 이미지 촬영 방법 및 그 전자 장치
US10168871B2 (en) * 2013-09-16 2019-01-01 Rovi Guides, Inc. Methods and systems for presenting direction-specific media assets
DE102013021834B4 (de) * 2013-12-21 2021-05-27 Audi Ag Vorrichtung und Verfahren zum Navigieren innerhalb eines Menüs zur Fahrzeugsteuerung sowie Auswählen eines Menüeintrags aus dem Menü
JP6518069B2 (ja) * 2015-01-09 2019-05-22 キヤノン株式会社 表示装置、撮像システム、表示装置の制御方法、プログラム、及び記録媒体
JP5931257B1 (ja) * 2015-03-31 2016-06-08 株式会社トライグループ 動画再生装置及びプログラム
JP6566698B2 (ja) * 2015-04-13 2019-08-28 キヤノン株式会社 表示制御装置および表示制御方法
KR101969943B1 (ko) * 2015-05-27 2019-08-13 구글 엘엘씨 사용자 헤드셋으로의 구면 영상 대역폭을 감소시키는 방법 및 장치
US20160353146A1 (en) * 2015-05-27 2016-12-01 Google Inc. Method and apparatus to reduce spherical video bandwidth to user headset
JP2017041780A (ja) * 2015-08-20 2017-02-23 株式会社 ディー・エヌ・エー 動画を特定の視野で表示するシステム、方法、及びプログラム
KR20170035755A (ko) * 2015-09-23 2017-03-31 엘지전자 주식회사 이동 단말기 및 그 제어 방법
WO2017052001A1 (en) * 2015-09-23 2017-03-30 Lg Electronics Inc. Mobile terminal and controlling method thereof
JP6361714B2 (ja) * 2015-09-30 2018-07-25 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
US10558353B2 (en) 2015-11-18 2020-02-11 Samsung Electronics Co., Ltd. System and method for 360-degree video navigation
CN105611160B (zh) * 2015-12-28 2019-07-09 北京极图科技有限公司 六路拼接式全景成像装置
US20170186218A1 (en) * 2015-12-28 2017-06-29 Le Holding (Beijing) Co., Ltd. Method for loading 360 degree images, a loading module and mobile terminal
US10068617B2 (en) * 2016-02-10 2018-09-04 Microsoft Technology Licensing, Llc Adding content to a media timeline
KR20180130504A (ko) * 2016-03-31 2018-12-07 소니 주식회사 정보 처리 장치, 정보 처리 방법, 프로그램
WO2017183436A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 表示制御装置および表示制御方法、並びに、生成装置および生成方法
JP6482498B2 (ja) * 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2017041872A (ja) * 2016-06-01 2017-02-23 株式会社 ディー・エヌ・エー 動画を特定の視野で表示するシステム、方法、及びプログラム
CN106375863A (zh) * 2016-08-19 2017-02-01 乐视控股(北京)有限公司 一种全景信息呈现方法及其呈现装置
CN107888987B (zh) 2016-09-29 2019-12-06 华为技术有限公司 一种全景视频播放方法及装置
CN108062507B (zh) * 2016-11-08 2024-02-27 中兴通讯股份有限公司 一种视频处理方法及装置
KR102314594B1 (ko) * 2017-03-03 2021-10-18 후아웨이 테크놀러지 컴퍼니 리미티드 이미지 디스플레이 방법 및 전자 장치
CN107105127B (zh) * 2017-04-18 2020-10-16 努比亚技术有限公司 一种全景照片摄制方法及装置
JP6343779B1 (ja) * 2017-04-28 2018-06-20 株式会社コナミデジタルエンタテインメント サーバ装置、及びそれに用いられるコンピュータプログラム
WO2018216355A1 (ja) * 2017-05-24 2018-11-29 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2018234622A1 (en) * 2017-06-21 2018-12-27 Nokia Technologies Oy METHOD OF DETECTING EVENTS OF INTEREST
JP6330089B1 (ja) * 2017-06-30 2018-05-23 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行されるプログラム、情報処理装置および仮想空間を提供するための方法
JP7140527B2 (ja) * 2018-03-30 2022-09-21 キヤノン株式会社 電子機器及びその制御方法
US11212439B2 (en) * 2018-07-24 2021-12-28 Ricoh Company, Ltd. Communication terminal, display method, and non-transitory computer-readable medium for displaying images and controller
US10574975B1 (en) 2018-08-08 2020-02-25 At&T Intellectual Property I, L.P. Method and apparatus for navigating through panoramic content
JP6586717B1 (ja) * 2019-04-05 2019-10-09 Mil株式会社 コンテンツ提供システム及びプログラム
JP6644232B1 (ja) * 2019-08-22 2020-02-12 Mil株式会社 コンテンツ提供システム及びプログラム
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame
US11943565B2 (en) * 2021-07-12 2024-03-26 Milestone Systems A/S Computer implemented method and apparatus for operating a video management system
WO2023224031A1 (ja) * 2022-05-17 2023-11-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、及び情報処理プログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6020931A (en) * 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
US6624846B1 (en) 1997-07-18 2003-09-23 Interval Research Corporation Visual user interface for use in controlling the interaction of a device with a spatial region
US6795106B1 (en) * 1999-05-18 2004-09-21 Intel Corporation Method and apparatus for controlling a video camera in a video conferencing system
US8020183B2 (en) 2000-09-14 2011-09-13 Sharp Laboratories Of America, Inc. Audiovisual management system
AU2002348192A1 (en) * 2001-11-08 2003-05-19 Eyesee360, Inc. Method and apparatus for the computation of panoramic views and _perspective projections from omnidirectional images
JP3982295B2 (ja) * 2002-03-20 2007-09-26 日本電信電話株式会社 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
US7308131B2 (en) 2002-12-03 2007-12-11 Ntt Docomo, Inc. Representation and coding of panoramic and omnidirectional images
EP1854282B1 (en) 2004-11-05 2019-02-27 Briefcam Ltd. Method and system for spatio-temporal video warping
US8453060B2 (en) * 2006-08-25 2013-05-28 Microsoft Corporation Panoramic ring user interface
CA2688339C (en) * 2007-05-25 2017-04-04 Google Inc. Rendering, viewing and annotating panoramic images, and applications thereof
FR2963470A1 (fr) 2010-07-29 2012-02-03 3Dtv Solutions Procede et dispositif de montage audiovisuel
JP5841538B2 (ja) * 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
JP5918618B2 (ja) * 2011-06-03 2016-05-18 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5020398B1 (ja) * 2011-06-29 2012-09-05 パナソニック株式会社 画像変換装置、カメラ、画像変換方法およびプログラム
JP6124517B2 (ja) * 2012-06-01 2017-05-10 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP5975739B2 (ja) * 2012-06-01 2016-08-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP6006536B2 (ja) * 2012-06-01 2016-10-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
US9886795B2 (en) * 2012-09-05 2018-02-06 Here Global B.V. Method and apparatus for transitioning from a partial map view to an augmented reality view
US20140232819A1 (en) * 2013-02-19 2014-08-21 Tourwrist, Inc. Systems and methods for generating and sharing panoramic moments

Also Published As

Publication number Publication date
EP2782333A1 (en) 2014-09-24
EP2782333B1 (en) 2016-08-03
US9094655B2 (en) 2015-07-28
US20140270692A1 (en) 2014-09-18
JP2014183380A (ja) 2014-09-29

Similar Documents

Publication Publication Date Title
JP6548203B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法
JP6124517B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP6006536B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP5975739B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
AU2019216671B2 (en) Method and apparatus for playing video content from any location and any time
CN109416931A (zh) 用于视线跟踪的装置和方法
JP6450064B2 (ja) 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
US10841557B2 (en) Content navigation
US20160381341A1 (en) View interpolation for visual storytelling
KR101556055B1 (ko) 통지 제어 장치, 통지 제어 방법 및 프로그램을 기록한 기록 매체
US9776088B2 (en) Apparatus and method of user interaction
JP2019180060A (ja) 電子機器及びその制御方法
WO2015033446A1 (ja) ランニング支援システムおよびこれに用いるヘッドマウントディスプレイ装置
US20210385554A1 (en) Information processing device, information processing method, and information processing program
CN107506026A (zh) 控制应用运行的方法、装置及头戴式显示设备
JP6621165B2 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP2018061666A (ja) ゲームプログラム及びゲーム装置
JP2018192272A (ja) ゲームプログラム及びゲーム装置
US20230342989A1 (en) Virtual Content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180427

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190619

R150 Certificate of patent or registration of utility model

Ref document number: 6548203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250