JP6006536B2 - 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 Download PDF

Info

Publication number
JP6006536B2
JP6006536B2 JP2012125644A JP2012125644A JP6006536B2 JP 6006536 B2 JP6006536 B2 JP 6006536B2 JP 2012125644 A JP2012125644 A JP 2012125644A JP 2012125644 A JP2012125644 A JP 2012125644A JP 6006536 B2 JP6006536 B2 JP 6006536B2
Authority
JP
Japan
Prior art keywords
information
panoramic video
range
display
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012125644A
Other languages
English (en)
Other versions
JP2013251787A (ja
Inventor
鈴木 利明
利明 鈴木
滋史 川瀬
滋史 川瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012125644A priority Critical patent/JP6006536B2/ja
Priority to US13/869,401 priority patent/US9485484B2/en
Publication of JP2013251787A publication Critical patent/JP2013251787A/ja
Priority to US15/245,451 priority patent/US9749672B2/en
Application granted granted Critical
Publication of JP6006536B2 publication Critical patent/JP6006536B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application

Description

本発明は、パノラマ動画を表示装置に表示させる情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法に関する。
従来、パノラマ画像を生成して表示装置に表示する技術がある(例えば、特許文献1参照)。
特開2004−187298号公報
従来においては、単にパノラマ画像を表示するだけであるため、パノラマ画像とともに種々の情報をユーザに提供することが望まれる。
それ故、本発明の目的は、パノラマ画像を再生する際により多くの情報をユーザに提示することが可能な情報処理プログラム、情報処理装置、情報処理システム、および動画表示方法を提供することである。
上記の課題を解決すべく、本発明は、以下の(1)〜(25)の構成を採用した。
(1)
本発明の一例は、パノラマ動画の一部の領域を表示装置に表示する情報処理装置のコンピュータにおいて実行される情報処理プログラムである。情報処理プログラムは、取得手段と、第1出力制御手段としてコンピュータを機能させる。
取得手段は範囲情報を取得する。範囲情報は、パノラマ動画のうちで表示される表示範囲を特定可能な情報であって、パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される表示範囲に関する情報である。第1出力制御手段は、取得手段によって取得された範囲情報に応じて出力内容を変化させてパノラマ動画の少なくとも一部を出力する。
上記(1)の構成によれば、パノラマ動画が再生された際に範囲情報が取得される。そして、取得された範囲情報に応じて出力内容を変化させてパノラマ動画の少なくとも一部が出力される。これによれば、過去においてまたは他の装置においてパノラマ動画が再生される際の再生内容をユーザに提示することができる。例えば、過去においてまたは他の装置においてパノラマ動画が再生される際の再生内容を、現在再生中のパノラマ動画の出力に反映することができる。このように、上記(1)の構成によれば、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。
(2)
取得手段は、取得された範囲情報を記憶部に履歴情報として記憶してもよい。このとき、第1出力制御手段は、履歴情報が記憶された後で履歴情報に基づく情報を出力する。
上記(2)の構成によれば、パノラマ画像の再生中において、範囲情報が履歴情報として記憶される。そして、パノラマ動画は、記憶された取得された履歴情報に応じて出力内容を変化させて出力される。これによって、履歴情報に応じた出力をパノラマ動画の再生とともに行うことができる。すなわち、単にパノラマ動画を提示するだけでなく、ユーザにとって興味深い情報をパノラマ動画とともに提示することができる。
(3)
取得手段は、パノラマ動画における再生時点を特定可能な時間情報と、当該再生時点における表示範囲および/または当該表示範囲内の位置を特定可能な範囲情報とを関連づけた履歴情報を記憶部に記憶してもよい。
上記(3)の構成によれば、上記時間情報と範囲情報とを記憶することによって、パノラマ画像において閲覧された範囲を記憶することが可能となる。これによれば、例えば、パノラマ動画の画像領域のうちでどの範囲が閲覧されたかを後で確認することができる。
(4)
情報処理プログラムは、所定の入力装置に対する入力に基づいて表示範囲を決定する範囲決定手段としてコンピュータをさらに機能させてもよい。このとき、第1出力制御手段は、所定の入力装置に対する入力に基づいて決定される表示範囲のパノラマ動画を表示装置に表示するとともに、履歴情報に基づいて生成される履歴関連情報を出力する。
上記(4)の構成によれば、パノラマ動画の再生中に履歴関連情報をユーザに提示することができ、ユーザは、他のユーザの履歴に関する情報を知ることができる。
(5)
第1出力制御手段は、現在の表示範囲に対する、履歴情報に含まれる範囲情報によって特定される表示範囲の向きを表す履歴関連情報をパノラマ動画とともに出力してもよい。
上記(5)の構成によれば、上記の向きを表す履歴関連情報が提示されることによって、現在の表示範囲を基準にして、他のユーザがパノラマ動画のどこを見ていたかをユーザに提示することができる。
(6)
第1出力制御手段は、履歴情報から得られる、パノラマ動画における所定の範囲についての表示頻度を表す履歴関連情報を出力してもよい。
上記(6)の構成によれば、パノラマ動画のうちでどの場所がよく見られているかを提示することができる。これによって、ユーザは、例えば、人気が高い(他のユーザによく見られている)範囲に表示範囲を合わせてパノラマ動画を再生したり、逆にあまり見られていない範囲に表示範囲を合わせてパノラマ動画を再生したりすることができる。
(7)
第1出力制御手段は、時間情報および範囲情報に関する所定の条件を満たす履歴情報の数に応じた表示頻度を表す履歴関連情報を出力してもよい。
上記(7)の構成によれば、複数回のパノラマ動画の再生において、パノラマ動画のうちでどの場所が他のユーザによく見られているかを提示することができる。
(8)
第1出力制御手段は、パノラマ画像上における位置に関する所定の条件を満たす範囲情報の数に応じた表示頻度を表す履歴関連情報を出力してもよい。
上記(8)の構成によれば、1回あるいは複数回のパノラマ動画の再生において、パノラマ動画のうちでどの場所が他のユーザによく見られているかを提示することができる。
(9)
パノラマ動画は、当該パノラマ動画中に登場するオブジェクトの位置および/または範囲を表すオブジェクト情報とともに、情報処理装置がアクセス可能な記憶部に記憶されていてもよい。このとき、第1出力制御手段は、オブジェクト情報と履歴情報とに基づいてオブジェクトの表示頻度を算出し、当該表示頻度を表す履歴関連情報をパノラマ動画とともに出力する。
上記(9)の構成によれば、パノラマ動画中に登場するあるオブジェクトがどの程度注目されているかをユーザに提示することができる。
(10)
第1出力制御手段は、パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として表示装置に表示させてもよい。
上記(10)の構成によれば、パノラマ動画の再生の終了後に、その再生における履歴をユーザに対して提示することができる。
(11)
取得手段は、表示範囲、および/または、当該表示範囲内の位置を表す範囲情報を履歴情報として取得してもよい。このとき、情報処理プログラムは、履歴情報によって特定される表示範囲に、パノラマ動画中に登場するオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出するオブジェクト選出手段としてコンピュータをさらに機能させる。第1出力制御手段は、選出されたオブジェクトが含まれるパノラマ画像を静止画または動画として表示装置に表示させる。
上記(11)の構成によれば、パノラマ動画の再生の終了後に、パノラマ動画に登場したオブジェクトの表示度合い(よく見られていたか、見られていないか)をユーザに対して提示することができる。
(12)
情報処理プログラムは、パノラマ動画の再生中における表示範囲にオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出するオブジェクト選出手段としてコンピュータをさらに機能させてもよい。このとき、取得手段は、選出されたオブジェクトを表す情報を範囲情報として取得する。第1出力制御手段は、範囲情報が表すオブジェクトが含まれる表示範囲のパノラマ画像を静止画または動画として表示装置に表示させる。
上記(12)の構成によれば、上記(11)構成と同様、パノラマ動画の再生の終了後に、パノラマ動画に登場したオブジェクトに関する表示度合いをユーザに対して提示することができる。
(13)
取得手段は、パノラマ動画における再生時点を特定可能な時間情報と、当該再生時点における表示範囲および/または当該表示範囲内の位置を特定可能な範囲情報とを関連づけた履歴情報を記憶部に記憶してもよい。このとき、第1出力制御手段は、複数の履歴情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として表示装置に表示させる。
上記(13)の構成によれば、パノラマ動画の再生の終了後に、パノラマ動画のどの場所がよく見られているか(あるいは見られていないか)等をユーザに対して提示することができる。
(14)
取得手段は、表示装置において再生されるパノラマ動画に関する範囲情報を取得してもよい。
上記(14)の構成によれば、履歴情報を反映してパノラマ動画が再生される表示装置において過去に再生された範囲情報を取得することができる。これによれば、ユーザは、例えば、同じ表示装置で前に再生された際の再生内容を確認することができる。
(15)
取得手段は、表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得してもよい。
上記(15)の構成によれば、パノラマ動画が再生された表示装置とは異なる表示装置において再生内容を提示することができる。
(16)
情報処理プログラムは、範囲決定手段と、第2出力制御手段としてコンピュータをさらに機能させてもよい。範囲決定手段は、第1出力制御手段によってパノラマ動画が表示装置において表示される間、所定の入力装置に対する入力に基づいて表示範囲を決定する。第2出力制御手段は、第1出力制御手段によってパノラマ動画が表示装置において表示される間、範囲決定手段によって決定される表示範囲のパノラマ動画を他の表示装置に表示させる。
上記(16)の構成によれば、ユーザは、パノラマ動画における所望の表示範囲の領域を視聴することができるとともに、履歴情報を反映した出力態様で当該パノラマ動画を視聴することができる。
(17)
情報処理プログラムは、第1出力制御手段によってパノラマ動画が表示装置において表示される間に、当該表示装置とは別の他の表示装置において当該パノラマ動画を出力させる第2出力制御手段としてコンピュータをさらに機能させてもよい。このとき、取得手段は、他の表示装置においてパノラマ動画が再生される場合に範囲情報を取得する。第1出力制御手段は、他の表示装置においてパノラマ動画が再生される間に、範囲情報に応じて出力内容を変化させて表示装置にパノラマ動画を表示させる。
上記(17)の構成によれば、2つの表示装置にパノラマ動画が表示され、一方の表示装置における再生内容が、他方の表示装置における出力に反映される。したがって、複数人のユーザが同時に1つのパノラマ動画を見ている場合において、他のユーザがパノラマ動画のどの場所を見ているかという、ユーザにとって興味深い情報をパノラマ動画とともに提示することができる。
(18)
情報処理プログラムは、第1出力制御手段によってパノラマ動画が表示装置において表示される間、所定の入力装置に対する入力に基づいて表示範囲を決定する範囲決定手段としてコンピュータをさらに機能させてもよい。このとき、第2出力制御手段は、範囲決定手段によって決定される表示範囲のパノラマ動画を他の表示装置に表示させる。第1出力制御手段は、所定の範囲のパノラマ動画を表示装置に表示させるとともに、範囲情報に基づく表示範囲のパノラマ動画を表示装置に表示させる。
上記(18)の構成によれば、2つの表示装置にパノラマ動画が表示される場合において、一方の表示装置における表示範囲のパノラマ画像が、他方の表示装置においても表示される。これによれば、上記他方の表示装置を見るユーザも、上記一方の表示装置の再生内容を容易に確認することができる。例えば、上記一方の表示装置が可搬型(携帯型)の表示装置である場合等においては上記(18)の構成が有効である。
(19)
第1出力制御手段は、範囲情報に基づいて決定される表示範囲のパノラマ動画を表示装置に表示させてもよい。
上記(19)の構成によれば、過去に再生された場合(履歴情報が記憶された場合)と同じ表示範囲でパノラマ動画を再生することができる。
(20)
また、取得手段は、表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得してもよい。このとき、第1出力制御手段は、範囲情報に基づいて決定される表示範囲における変化を軽減してパノラマ動画を表示装置に表示させてもよい。
上記(20)の構成によれば、表示範囲を操作していないユーザに対して、当該表示範囲のパノラマ動画を見やすく提供することができる。
(21)
取得手段は、パノラマ動画の再生中においてユーザによって指定された位置を表す範囲情報をさらに取得してもよい。このとき、第1出力制御手段は、範囲情報に基づいて決定されるパノラマ画像上における位置を表す画像をパノラマ動画とともに表示装置に表示する。
上記(21)の構成によれば、パノラマ動画が別に再生される際においてユーザが指定した位置を他のユーザに提示することができる。
(22)
第1出力制御手段は、範囲情報に基づく表示範囲または位置に対応する視線方向を表す画像を表示装置に表示させてもよい。
上記(22)の構成によれば、パノラマ動画が別に再生される際において他のユーザがどちらを向いていたかを、ユーザに提示することができる。
(23)
第1出力制御手段は、パノラマ動画が表す空間と、範囲情報に基づくパノラマ動画上における位置に対応する当該空間内における位置とを表す画像を表示装置に表示させてもよい。
上記(23)の構成によれば、範囲情報が表す位置を、パノラマ動画とは異なる視点から見た画像で表現することができ、当該位置をよりわかりやすくユーザに提示することができる。
(24)
取得手段は、ネットワークを介して外部の装置から範囲情報を取得してもよい。
上記(24)の構成によれば、他のユーザの履歴情報に基づく情報をユーザに対して提示することができる。
(25)
取得手段は、範囲情報に関する入力を行ったユーザを表すユーザ情報をさらに取得してもよい。このとき、出力制御手段は、パノラマ動画を出力する場合にユーザ情報を出力する。
上記(25)の構成によれば、履歴情報が記憶された際にそのパノラマ動画を再生していたユーザが誰であるかの情報をユーザに提示することができる。
なお、本発明の別の一例は、上記(1)〜(25)の情報処理プログラムを実行することによって実現される各手段と同等の手段を備える情報処理装置あるいは情報処理システムであってもよいし、上記(1)〜(25)において実行されるパノラマ動画表示方法であってもよい。
本発明によれば、パノラマ動画が別に再生される場合において取得された範囲情報に応じて出力内容を変化させてパノラマ動画を出力することで、パノラマ画像を再生する際により多くの情報をユーザに提示することが可能となる。
本実施形態に係る情報処理システムの一例を示すブロック図 情報処理システムにおいて表示されるパノラマ動画(画像)の一例を示す図 端末装置の姿勢に応じて表示領域を決定する方法の一例を示す図 ユーザがコメントを入力する操作の一例を示す図 付加情報を入力するためのボタンが表示されたパノラマ動画の一例を示す図 付加情報の入力に応じて記憶される情報(「入力情報」と呼ぶ。)の一例を示す図 範囲情報に関する条件を判定する方法の一例を示す図 範囲情報に関する条件を判定する方法の他の一例を示す図 コメントの出力期間の一例を示す図 パノラマ動画とともに付加情報が表示される画像の一例を示す図 出力される付加情報の他の一例を示す図 オブジェクト情報の一例を示す図 パノラマ動画とともに付加情報が表示される画像の他の一例を示す図 パノラマ動画とともに付加情報が表示される画像の他の一例を示す図 パノラマ動画とともに付加情報が表示される画像の他の一例を示す図 表示範囲と付加情報の入力位置との位置関係の一例を示す図 ガイド情報の一例を示す図 他の表示装置において目標が設定される場合において各表示装置に表示される画像の一例を示す図 表示範囲が目標として設定される場合における各表示装置に表示される画像の一例を示す図 履歴情報の一例を示す図 履歴関連情報の画像の一例を示す図 履歴関連情報の画像の他の一例を示す図 履歴情報に基づく履歴関連情報の画像の他の一例を示す図 履歴情報に基づいて決定された表示範囲のパノラマ動画がモニタ4に表示される場合の一例を示す図 パノラマ動画とともに補助画像が表示される場合の一例を示す図 視線方向を表す画像の一例を示す図 範囲情報に基づく位置を表す画像がパノラマ画像とともに表示される場合の一例を示す図 パノラマ動画の再生終了後において表示される画像の一例を示す図 本実施形態において情報処理システムの記憶部に記憶されるデータの一例を示す図 本実施形態において情報処理装置のCPUが実行する第1モードの動画再生処理の流れの一例を示すフローチャート 本実施形態において情報処理装置のCPUが実行する第2モードの動画再生処理の流れの一例を示すフローチャート 本実施形態において情報処理装置のCPUが実行する第3モードの動画再生処理の流れの一例を示すフローチャート 本実施形態において情報処理装置のCPUが実行する第3モードの動画再生処理の流れの一例を示すフローチャート
[1.情報処理システムの構成]
以下、本実施形態の一例に係る情報処理システム、情報処理装置、情報処理プログラム、および動画表示方法について説明する。図1は、本実施形態に係る情報処理システムの一例を示すブロック図である。図1において、情報処理システム1は、端末装置2、情報処理装置3、モニタ4、および操作装置7を備える。本実施形態における情報処理システム1は、画像(パノラマ画像)を生成して表示装置(端末装置2および/またはモニタ4)に表示するものである。
本情報処理システム1においては、端末装置2(および操作装置7)に対する入力に応じて情報処理装置3が情報処理(図30〜図33に示す動画再生処理)を実行し、実行の結果得られた画像が端末装置2および/またはモニタ4に表示される。このように、本実施形態においては、情報処理システム1は、入力機能、情報処理機能、および表示機能が複数の装置によって実現される構成である。なお、他の実施形態においては、情報処理システム1は、これらの機能を有する単一の情報処理装置(例えば携帯型あるいは可搬型の情報処理装置)で構成されてもよい。
端末装置2は、ユーザが把持可能な入力装置である。つまり、端末装置2は、可搬型の入力装置である。端末装置2は情報処理装置3と通信可能である。端末装置2は、端末装置2に対する操作を表す操作データを情報処理装置3へ送信する。また、本実施形態においては、端末装置2は表示部(LCD11)を備えており、端末装置2は表示装置でもある。情報処理装置3から画像が送信されてくる場合、端末装置2は表示部に当該画像を表示する。また、端末装置2は、スピーカを備える。情報処理装置3から音声が送信されてくる場合、端末装置2はスピーカから当該音声を出力する。
また、端末装置2は、入力部としてタッチパネル12を備える。タッチパネル12は、ハウジング10に設けられる所定の入力面(表示部の画面)に対して入力された位置を検出する位置検出部の一例である。さらに、端末装置2は、入力部として、スライドパッド、十字キー、およびボタン等の操作部13を備える。
また、端末装置2は入力部として加速度センサ14を備える。加速度センサ14は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)に関する加速度を検出する。また、端末装置2は入力部としてジャイロセンサ15を備える。ジャイロセンサ15は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)を軸とした回転に関する角速度を検出する。加速度センサ14およびジャイロセンサ15は、端末装置2の姿勢を算出するための情報(姿勢を算出あるいは推定可能な情報)を検出するセンサである。なお、他の実施形態においては、端末装置2の姿勢はどのような方法で算出されてもよい。例えば、上記センサ以外の他のセンサを用いて、あるいは、端末装置2を撮影可能なカメラを用いて端末装置2の姿勢が算出されてもよい。
情報処理装置3は、画像を生成する処理等、情報処理システム1において実行される情報処理を実行する。本実施形態においては、情報処理装置3は、CPU(制御部)5およびメモリ6を有し、CPU5がメモリ6を用いて所定の情報処理プログラムを実行することによって、情報処理装置3における各種機能(図30〜図33に示す情報処理)が実現される。なお、情報処理装置3は、上記の情報処理を実行することができればどのような構成であってもよい。本実施形態においては、情報処理装置3によって画像(パノラマ画像)が生成され、生成された画像は、表示装置である端末装置2および/またはモニタ4へ出力される。また、情報処理装置3は、パノラマ動画とともに出力すべき音声を生成してもよい。生成された音声は、端末装置2および/またはモニタ4へ出力される。
モニタ4は、生成された画像を表示する表示装置の一例である。モニタ4は情報処理装置3から送信されるデータを受信可能である。情報処理装置3において生成された画像がモニタ4へ送信されてくる場合、モニタ4は当該画像を表示する。また、モニタ4はスピーカを備えていてもよい。情報処理装置3において生成された音声がモニタ4へ送信されてくる場合、スピーカは当該音声を出力する。
操作装置7は、情報処理装置3と通信可能な任意の入力装置である。操作装置7は、ボタン(キー)および/またはスティック等の入力手段を有するものであってもよいし、加速度センサおよび/またはジャイロセンサ等、操作装置7の位置および/または姿勢を算出(推測)することが可能なセンサであってもよい。操作装置7は、自機に対する操作を表す操作データを情報処理装置3へ送信する。情報処理装置3は、操作装置7からの操作データに基づいて上記情報処理を実行してもよい。なお、他の実施形態においては、情報処理システム1は端末装置2とは異なる他の入力装置(操作装置7)を含まない構成であってもよい。
[2.パノラマ動画の再生]
次に、情報処理システム1において実行される、パノラマ動画を再生する処理について説明する。図2は、情報処理システム1において表示されるパノラマ動画(画像)の一例を示す図である。図2に示すように、本実施形態においては、端末装置2およびモニタ4にパノラマ画像が表示される。なお、他の実施形態においては、パノラマ画像は少なくとも1つの表示装置に表示されればよい。
ここで、パノラマ画像とは、表示装置に表示される画像の視野角よりも広い視野角の画像である。つまり、パノラマ画像は、基本的にはその一部領域の画像が表示装置に表示される(ただし、本実施形態のように複数の表示装置が用いられる場合には、一部の表示装置においてパノラマ画像の全体が表示されてもよい。)。パノラマ画像は、表示領域が変化することによって視線の方向が変化する画像であるとも言える。本実施形態においては、上下左右方向に関して全方向(360°)の視野角を有するパノラマ画像が用いられる(図3参照)。ただし、パノラマ画像には死角があってもよく、例えば視野角が180°程度であってもよい。また、本実施形態においては、パノラマ画像はカメラによって撮影された実画像(実写画像)であるが、その一部または全部が仮想画像(CG画像)であってもよい。
本実施形態においては、パノラマ画像が表示装置(端末装置2およびモニタ4)に逐次表示されることによって、パノラマ動画が再生される。すなわち、複数のパノラマ画像によってパノラマ動画が構成される。複数のパノラマ画像にはそれぞれフレーム番号が付されており、パノラマ画像がフレーム番号順に表示されることによって、パノラマ動画が再生される。本実施形態においては、時間経過に伴って視点が移動するパノラマ動画が再生される。すなわち、図2に示すように道路上から周囲を見たパノラマ画像が表示され、道路を進んでいく(視点が道路に沿って移動する)パノラマ動画が再生される。
図2に示すように、各表示装置(端末装置2およびモニタ4)には、パノラマ画像の一部の範囲が表示される。以下では、パノラマ画像のうちで表示装置に表示される範囲を「表示範囲」と呼ぶ。図2においては、モニタ4には、視線方向が視点の進行方向(正面方向)となる表示範囲のパノラマ画像が表示される。本実施形態においては、モニタ4における表示範囲は、基本的には予め定められた所定範囲に固定され、一定条件下で変更されることもある(詳細は後述する)。
一方、端末装置2における表示範囲は、端末装置2の姿勢に応じて変更される。例えば図2においては、端末装置2は正面方向(ユーザ(端末装置2)からモニタ4への方向)に対して右を向いた姿勢となっており、端末装置2には、上記進行方向に対して視線が右を向いた場合の表示範囲のパノラマ画像が表示されている。このように、情報処理システム1は、入力装置(端末装置2)に対する入力に基づいて、パノラマ動画のうちで表示装置に表示する表示範囲を決定する。これによれば、ユーザは、端末装置2に対する操作(姿勢を変化させる操作)によって視線方向(表示範囲)を自由に変化させてパノラマ動画を見ることができる。なお、他の実施形態においては、表示範囲はユーザの操作に応じて変化するように決定される任意の方法によって決定されてもよい。
図3は、端末装置2の姿勢に応じて表示領域を決定する方法の一例を示す図である。本実施形態においては、図3に示すように、仮想空間に立体モデル21を配置し、その立体モデル21の内側に仮想カメラ22を配置する。そして、仮想カメラ22から見た立体モデル21(立体モデル21の内側面)の画像を生成する際に、パノラマ画像をテクスチャとして立体モデルの内側面に描画することで、パノラマ画像が生成される。このとき、パノラマ画像のうち、仮想カメラ22の視野範囲(図3に示す斜線領域23)が表示範囲となる。なお、本実施形態においては立体モデル21は立方体であるとするが、立体モデル21の形状は任意であり、例えば球体または柱状(例えば円柱)の形状であってもよい。
図3において、端末装置2に表示すべき画像を生成するための仮想カメラ22は、仮想カメラ22の姿勢が端末装置2の姿勢に応じて制御される。これによって、端末装置2の姿勢に応じて表示範囲が変化する。なお、情報処理装置3は、表示範囲の位置に加えて、表示範囲の大きさ(ズームインまたはズームアウト)を端末装置2に対する操作に応じて変更するようにしてもよい。
一方、モニタ4に表示すべき画像を生成するための仮想カメラ(図示せず)は、その視線方向が基本的には所定の基準方向(ここでは、上述した進行方向。図3ではZ軸正方向)を向くように設定される。つまり、モニタ4の表示範囲(図3に示す斜線領域24)は、仮想カメラから基準方向への位置に設定される。これら各仮想カメラの位置は立体モデル21内の所定位置(本実施形態においては立体モデル21の中心位置)に固定される。
なお、本実施形態においては、モニタ4の視線方向(モニタ4に表示されるパノラマ動画の視線方向)と端末装置2の視線方向(端末装置2に表示されるパノラマ動画の視線方向)との関係が、モニタ4の向きと端末装置2の向きとの関係と概ね一致するように、仮想カメラ22の視線方向が制御される。具体的には、端末装置2がモニタ4の方を向く姿勢(基準姿勢とする)となる場合、仮想カメラ22の視線方向は、モニタ4のための仮想カメラと同じ方向(すなわち、所定の基準方向)となる。そして、端末装置2の姿勢が基準姿勢から変化した場合、その変化方向に応じた方向へ、変化量に応じた量だけ、仮想カメラ22の姿勢が変化する。これによれば、ユーザは、モニタ4によってある視線方向の風景を見ながら、端末装置2の向きを変化させることによって所望の視線方向の風景を見ることができる。また、端末装置2の姿勢の変化と仮想カメラ22の姿勢の変化とを一致させることによって、現実空間における端末装置2の向きと、仮想空間における仮想カメラ22の視線方向とが一致するので、ユーザは、パノラマ画像が表す空間をよりリアルに感じることができる。
[3.ユーザによるコメントの入力]
本実施形態においては、パノラマ動画の再生中において、ユーザはコメント(付加情報)を入力することができる(図4,図5参照)。また、入力されたコメントは、その後パノラマ動画が再生される際に、パノラマ動画とともに出力される(図10〜図13参照)。なお、付加情報(コメント)は、画像として表示されてもよいし、音声として出力されてもよい。これによって、ユーザは、パノラマ動画を単に見るだけでなく、自分や他のユーザが入力したコメントと共にパノラマ動画を視聴することができる。したがって、本実施形態によれば、情報処理システム1は、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。また、付加情報が提示されることによって、ユーザは、パノラマ動画のうちで自分が見た範囲を他のユーザに伝えたり、他のユーザが見た範囲を知ったりすることができる。以下、コメントの入力を受け付け、入力されたコメントを出力する方法の詳細を説明する。
本実施形態においては、上記コメントのように、パノラマ動画に付加される情報を「付加情報」と呼ぶ。本実施形態においては、ユーザによって入力される付加情報はコメント(メッセージ)である。ただし、付加情報の内容はどのようなものであってもよく、例えば、後述する評価情報(パノラマ動画中に登場するオブジェクトに対する評価を表す情報)、あるいは、ユーザ情報等であってもよい。
(3−1)付加情報の入力
図4および図5を参照して、ユーザが付加情報(コメント)を入力する方法を説明する。情報処理システム1は、パノラマ動画の再生中において、端末装置2に表示されているパノラマ動画に対するコメントの入力を受け付ける。図4は、ユーザがコメントを入力する操作の一例を示す図である。本実施形態においては、情報処理システム1は、パノラマ動画が表示される画面上(タッチパネル12上)に対する入力(タッチ入力)を受け付ける。図4においては、ユーザは、パノラマ動画が表示される画面に対して直接手書きでコメントを入力することができる。なお、付加情報(コメント)の具体的な入力方法はどのような方法であってもよく、他の実施形態においては、例えばキーボードやボタン等の操作部を用いて入力が行われてもよいし、端末装置4がマイクを備える場合には音声入力が行われてもよい。
例えば、付加情報の入力は、パノラマ動画上に表示されるボタンに対する入力によって行われてもよい。図5は、付加情報を入力するためのボタンが表示されたパノラマ動画の一例を示す図である。図5に示すように、パノラマ動画上に評価ボタン31が表示される場合、情報処理システム1は、付加情報の入力として、当該評価ボタン31に対する入力(例えば、評価ボタン31をタッチする入力)を受け付けるようにしてもよい。例えば、ユーザは、評価に応じた回数だけ評価ボタン31に対する入力を行うようにしてもよい。
また、付加情報を入力する際、情報処理システム1は、端末装置2のLCD11に表示されているパノラマ画像上における位置を指定する入力(位置指定入力)を受け付けてもよい。例えば、コメントの入力を行う前に、コメントの入力を行う位置をユーザにタッチさせるようにしてもよい。なお、詳細は後述するが、パノラマ動画とともに付加情報が表示される場合、上記位置指定入力による位置に関連づけられて付加情報が表示されてもよい。
なお、付加情報の入力を受け付ける間は少なくとも、情報処理システム1は、パノラマ動画の再生を一時停止してもよい。例えば、付加情報(コメント)の入力が開始されてから終了されるまでの間、パノラマ動画の再生が一時停止されてもよい。これは、コメントを入力中のユーザが動画の内容を見逃すことを防止したり、コメントを入力しやすくしたりするためである。なお、他の実施形態においては、付加情報の入力中においてもパノラマ動画の再生が継続されてもよい。
(3−2)付加情報の記憶
付加情報の入力が行われた場合、情報処理システム1は、付加情報と、付加情報を出力するために必要な情報とを記憶する。図6は、付加情報の入力に応じて記憶される情報(「入力情報」と呼ぶ。)の一例を示す図である。本実施形態においては、図6に示すように、付加情報と、入力範囲情報とを含む入力情報が記憶部に記憶される。この記憶部は、本実施形態においてはメモリ6とするが、情報処理システム1(情報処理装置3)のコンピュータがアクセス可能な記憶装置であればよい。
上記の入力範囲情報は、付加情報の入力が受け付けられた場合における表示範囲および/または当該表示範囲内の位置を特定可能な情報である。なお、以下では、表示範囲および/または当該表示範囲内の位置を特定可能な情報を「範囲情報」と呼ぶ。つまり、入力範囲情報は、付加情報の入力が受け付けられた場合における範囲情報である。また、以下では、付加情報の入力が受け付けられた場合における表示範囲を、「入力範囲」と呼び、付加情報の入力が受け付けられた場合における(表示範囲内の)位置を「入力位置」と呼ぶ。
入力範囲情報は、上記入力範囲および入力位置の少なくともいずれかを特定できればよい。本実施形態においては、入力位置を特定可能な情報が入力範囲情報として記憶される。上記入力位置は、例えば、上述した位置指定入力によって指定された位置であってもよいし、付加情報が入力された位置(手書きのコメントが入力された位置や、評価ボタン31の位置)であってもよいし、付加情報が入力された時点における表示範囲の所定位置(例えば中心位置)であってもよい。また、音声入力に関しては、例えば、ユーザの声をマイクによって検知された時点における表示範囲(または表示範囲の中心位置)を表す入力範囲情報が記憶されてもよい。
上記入力範囲および/または入力位置を示す入力範囲情報として、本実施形態においては、仮想カメラ22の姿勢(視線方向)を表すベクトル(図6参照)の情報が記憶される。例えば、仮想カメラ22の位置から立体モデル21上の上記入力位置への方向を表すベクトルによって入力位置を表すことができる。また、仮想カメラ22の位置から立体モデル21上の上記入力範囲の中心位置への方向を表すベクトルと、当該方向を軸とした回転に関する姿勢を表すベクトルとによって入力範囲を表すことができる。なお、他の実施形態においては、上記入力範囲情報は、上記ベクトルの情報に加えて、表示範囲の大きさを示す情報(ズーム情報)を含んでいてもよい。また、他の実施形態においては、上記入力範囲情報として、立体モデル21上の範囲または位置を示す情報が記憶されてもよい。
本実施形態においては、付加情報は、コメントの内容を示す情報である(図6参照)。具体的には、コメントの内容を示す文字情報が付加情報として記憶されてもよいし、タッチパネル12に対する手書き入力が受け付けられる場合には、入力されたタッチ位置の軌跡を示す情報が付加情報として記憶されてもよい。また、付加情報として記憶される情報は、コメントの内容に限らずどのような内容であってもよい。
また、図6に示すように、本実施形態においては、入力情報は時間情報をさらに含む。時間情報は、付加情報の入力が受け付けられた再生時点を特定可能な情報である。なお、再生時点とは、パノラマ動画における時間軸上の時点である。以下では、付加情報の入力が受け付けられた再生時点を「入力時点」と呼ぶ。本実施形態においては、時間情報は、入力時点で表示されたパノラマ画像のフレーム番号(図6では「第iフレーム」と記載している)の情報である。時間情報は、パノラマ動画における時間軸上の再生時点を特定可能な任意の情報であってもよい。例えば、時間情報は、パノラマ動画の再生が開始されてからの経過時間を示す情報であってもよい。また、本実施形態のようにパノラマ動画の視点が時間経過につれて所定空間内を移動する場合には、当該所定空間内における視点の位置を示す情報が時間情報として記憶されてもよい。なお、他の実施形態においては、入力情報は時間情報を含まなくてもよい。
また、図6に示すように、本実施形態においては、入力情報はユーザ情報をさらに含む。ユーザ情報は、付加情報を入力したユーザを特定可能な情報である。ユーザ情報の具体的な内容はどのような情報であってもよい。本実施形態においては、パノラマ動画の再生前にユーザの識別情報(例えばユーザの名前(ニックネーム))が予め登録され、登録された識別情報がユーザ情報として記憶される。なお、他の実施形態においては、入力情報はユーザ情報を含まなくてもよい。
(3−3)付加情報の出力
以上のようにして付加情報を含む入力情報が記憶された状態でパノラマ動画が再生される場合、情報処理システム1は、パノラマ動画とともに付加情報を出力する。本実施形態においては、情報処理システム1は、パノラマ動画とともに出力される付加情報を上記入力範囲情報に基づいて制御する。典型的には、パノラマ動画の再生中において、上記入力時点が到来し、かつ、上記入力位置が現在の表示範囲に含まれる場合、付加情報がパノラマ動画とともに表示される(図10等参照)。なお、例えば入力時点が到来していない場合、あるいは、入力位置が現在の表示範囲に含まれない場合(現在の視線方向が付加情報の入力時とは別の方向を向いている場合)には、付加情報は表示されない。以下、付加情報を出力する方法について説明する。
(3−3−1)付加情報の出力判別の方法
本実施形態においては、情報処理システム1は、付加情報を出力するか否かを上記時間情報および入力範囲情報を用いて判別する。具体的には、情報処理装置3は、(a)再生されているパノラマ動画のうちの表示範囲が、入力範囲情報により特定される表示範囲および/または位置に関する条件を満たすか否か、および、(b)再生されているパノラマ動画が、時間情報により特定される再生時点に関する条件を満たすタイミングとなるか否か、を判定する。
図7は、入力範囲情報に関する条件を判定する方法の一例を示す図である。上記(a)に関する判定として、情報処理装置3は、現在の表示範囲と、コメントの入力位置(入力範囲情報により特定される位置)とが重なるか否かを判定してもよい(図7参照)。例えば図7に示すように入力位置が現在の表示範囲内に含まれる場合、上記(a)における条件が満たされると判定される。これによって、コメントの入力位置が端末装置2に表示されているか否かを判断することができる。
また、図8は、入力範囲情報に関する条件を判定する方法の他の一例を示す図である。他の実施形態においては、上記(a)に関する判定として、情報処理装置3は、現在の表示範囲と、コメント入力時の表示範囲(時間情報により特定される表示範囲)とが重なるか否かを判定してもよい。例えば図8に示すように入力範囲が現在の表示範囲と少なくとも一部において重複する場合、上記(a)における条件が満たされると判定される。これによれば、上記入力範囲と現在の表示範囲とが少なくとも一部において重複するか否かを判断することができる。つまり、コメント入力時の表示範囲の少なくとも一部が現在表示されているか否かを判断することができる。
なお、図7および図8を用いて説明した上記の判定は、立体モデル21上の位置(または範囲)を比較することによって行われてもよいし、仮想カメラ22の姿勢を表すベクトルを比較することによって行われてもよい。
また、上記(b)に関する判定としては、例えば、現在のパノラマ動画の再生時点が、時間情報により特定される再生時点(入力時点)を含む所定の出力期間であるか否かを判定してもよい。図9は、コメントの出力期間の一例を示す図である。図9に示すように、上記出力期間は、例えば、コメントの入力時点(時間情報が示す再生時点)の所定時間前から、所定の出力時間が経過するまでの期間として設定されてもよい。なお、出力期間は、コメントの入力時点に基づいて設定されてもよいし、コメントを入力したユーザによって設定されてもよい。また、コメントが文字情報である場合には、出力期間は文字数に応じた長さに(例えば、文字数が多いほど長くなるように)設定されてもよい。
上記(a)および(b)の判定がともに肯定となる場合、情報処理システム1は、パノラマ動画とともに付加情報を出力すると判断する。本実施形態においては、コメント入力時点を含む出力期間において、現在の表示範囲が上記入力位置を含む場合に、コメント(付加情報)が出力される。
(3−3−2)付加情報の出力態様
図10は、パノラマ動画とともに付加情報が表示される画像の一例を示す図である。付加情報を出力すると情報処理システム1が判断した場合、図10に示すように、端末装置2にはパノラマ動画上にコメント画像32が表示される。このように、本実施形態においては、パノラマ動画中に登場するあるオブジェクト(ここではビル)に対してコメントが入力されると、その後においてパノラマ動画が再生される際には、当該オブジェクトにコメントが付された状態でパノラマ動画が表示される。
ここで、図10に示すように、コメント画像32は、パノラマ画像上における上記入力位置を指し示す。つまり、情報処理システム1は、現在の表示範囲に入力位置が含まれる場合、当該入力位置に関連づけて付加情報の画像を表示させる。これによれば、コメントが付された位置をユーザに対して明確に認識させることができる。例えば図10においては、ユーザは、コメントが付された対象となったビルがどれであるかを容易に把握することができる。なお、図11は、出力される付加情報の他の一例を示す図である。図11に示されるように、コメント画像32は入力位置に表示されてもよい。また例えば、コメントがタッチパネル12に対する手書き入力によって行われる場合には、手書きの文字が入力位置に(そのまま)表示されてもよい。なお、付加情報の画像は、入力位置に関連づけて表示されるが、必ずしも入力位置に表示されなくてもよい。例えば、入力位置にコメント画像32が表示されると、コメントを付した対象が見にくくなるおそれがある。そのため、コメント画像32は、(図10に示すように)入力位置から少しずれた位置に表示されてもよい。なお、本明細書において、「画像」とは、文字(テキスト情報)を表す画像を含む。
また、図10に示すように、本実施形態においては、コメント画像32とともに、コメントを入力したユーザの名前(Aさん)を表すユーザ画像33が表示される。このように、情報処理システム1は、付加情報とともに当該付加情報に対応するユーザ情報を出力する。なお、出力されるユーザ情報は、ユーザの名前であってもよいし、ユーザ毎に設定されるキャラクタ(例えばユーザを模したキャラクタ)であってもよいし、ユーザの似顔絵の画像等であってもよい。本実施形態によれば、付加情報を見たユーザは、付加情報の内容だけでなく、付加情報を入力したユーザがパノラマ動画のどこを見ていたかを知ることができる。ここで、パノラマ動画は、一画面内に収まらない領域を有する動画であり、端末装置2における表示範囲はユーザが自由に操作することができる。そのため、パノラマ動画を視聴した際の表示範囲の位置やその変化はユーザによって異なる。そのため、本実施形態のように、他のユーザがパノラマ動画のどこを見ていたかを知ることができることはユーザにとって興味深い情報である。なお、図10に示す付加情報の表示態様以外の他の表示態様(図11〜図13等)においても、付加情報とともにユーザ情報が表示されてもよい。
なお、他の実施形態においては、ユーザ情報は付加情報自体として表示されてもよい。例えば、上記入力位置にユーザ情報を表す画像(例えば、ユーザの似顔絵の画像)のみが表示されてもよい。これによれば、付加情報(ユーザ情報)を見たユーザに対して、付加情報を入力したユーザが入力位置を含む表示範囲を閲覧していたことを伝えることができる。
なお、本実施形態のようにパノラマ動画の視点が時間に応じて移動する場合、パノラマ動画に登場する各オブジェクトは、パノラマ画像上において視点の移動方向とは逆方向に移動する。したがって、上記の場合、情報処理システム1は、付加情報を、当該付加情報に対応するオブジェクトの移動に合わせて移動させて表示するようにしてもよい。なお、「付加情報に対応するオブジェクト」とは、入力時点において入力位置に表示されているオブジェクトであり、換言すれば、入力時点において、入力範囲情報によって特定される位置に配置されているオブジェクトである。具体的には、付加情報は、視点の移動方向とは逆方向へ時間に応じて移動するように表示されてもよい。例えば、視点の移動方向を前方向とする場合には、付加情報は前から後へ移動するように表示されてもよい。なお、視点の移動方向および移動速度がわかる場合、空間内に固定的に配置されるオブジェクト(ビル等)がパノラマ動画上で移動する方向および速度を特定することができ、視点の移動方向および移動速度に基づいて、付加情報を移動させるアルゴリズムを算出することができる。したがって、このアルゴリズムに従って付加情報を移動させることによって、オブジェクトの移動に合わせて付加情報を移動させて表示することができる。なお、付加情報はオブジェクトの位置と厳密に一致する必要はなく、オブジェクトのある程度近傍に表示されてもよい。
また、オブジェクトの移動に合わせて付加情報を移動させる方法としては、オブジェクトの(パノラマ画像上における)位置および/または範囲を表すオブジェクト情報をパノラマ画像とともに用意しておく方法が考えられる。図12は、オブジェクト情報の一例を示す図である。図12に示すように、パノラマ画像中にオブジェクト(図12ではビル)が登場する場合、このオブジェクトの範囲(例えば図12に示す点線領域34)を示すオブジェクト情報がパノラマ動画とともに記憶される。なお、情報処理システム1は、パノラマ動画を構成する複数のパノラマ画像毎に、登場する1以上のオブジェクトについてオブジェクト情報を当該パノラマ画像に関連づけて記憶しておく。コメントの入力を受け付ける際には、情報処理装置3は、コメントの入力位置がオブジェクトの範囲内であるか否かを、オブジェクト情報を用いて判定する。入力位置がオブジェクトの範囲内である場合、情報処理装置3は、当該オブジェクトを示す情報を上記入力範囲情報として記憶する。パノラマ動画を再生する際には、情報処理装置3は、再生中のパノラマ動画のうちの表示範囲に上記オブジェクトが含まれることを少なくとも条件として、当該オブジェクトの位置に関連づけてコメントの画像を表示させる。具体的には、コメントは、オブジェクト情報から特定される上記オブジェクトの位置(または範囲)に関連づけて表示される。これによって、オブジェクトの位置に合わせた正確な位置に付加情報を表示させることができる。また、上記オブジェクト情報を用いる方法によれば、(視点の移動にかかわらず)空間内を移動することによってパノラマ画像上において移動して見えるオブジェクトに対しても、当該オブジェクトに応じた位置に付加情報を表示させることができる。
なお、後述するようなマップの画像(図25参照)が用意され、マップ上の位置とパノラマ動画上での位置とを対応付けることが可能である場合、オブジェクト情報は、マップと関連付けて(マップ上における位置または範囲を表す情報として)記憶されていてもよい。このとき、情報処理装置3は、表示範囲に対応するマップ上の範囲を特定し、特定された範囲内に関連づけられているオブジェクト情報から、オブジェクトのパノラマ動画上における位置または範囲を特定してもよい。
また、オブジェクト情報を入力範囲情報として記憶する場合には、オブジェクト情報が表すオブジェクトがパノラマ動画中に登場する期間に付加情報を表示することも可能である。つまり、オブジェクト情報を入力範囲情報として記憶することによって、(時間情報を用いることなく)付加情報の出力期間を制御することもできる。
また、他の実施形態においては、付加情報は、端末装置2の画面上における所定位置に表示されてもよい。図13は、パノラマ動画とともに付加情報が表示される画像の他の一例を示す図である。図13に示すように、コメント画像32は、(コメントに対応するオブジェクトの位置にかかわらず)画面の所定領域(図13では下側の領域)に表示されてもよい。例えばコメントの入力位置が上記入力範囲情報として記憶されない場合には、オブジェクトに対応する位置にコメントを表示することが難しいので、画面上の所定位置にコメントを表示するようにしてもよい。つまり、情報処理システム1は、再生中のパノラマ動画のうちの表示範囲が、付加情報が受け付けられた場合における表示範囲と少なくとも一部が重複する場合、表示装置の画面における所定位置に付加情報を表示させてもよい。これによれば、付加情報を表示する位置を容易に特定することができる。さらに、図13に示すように、付加情報は、パノラマ動画が表示される領域とは異なる領域に表示されてもよい。これによれば、付加情報によってパノラマ動画が隠されることがないので、パノラマ動画を見やすく表示することができる。
(3−3−3)付加情報の出力内容
他の実施形態においては、付加情報として出力される内容は、ユーザが入力したコメントに限らず、ユーザの入力に基づく他の情報であってもよい。例えば上述した評価ボタン31を用いて評価情報の入力が行われる場合には、評価ボタン31に対する入力回数を表す評価情報を付加情報として記憶し、当該入力回数を表す画像が付加情報として出力されてもよい。図14は、パノラマ動画とともに付加情報が表示される画像の他の一例を示す図である。上記の場合、例えば図14に示すように、入力回数に応じた長さのバー35が付加情報として表示されてもよい。なお、バー35は、付加情報の入力位置(評価ボタン31の位置)に基づく位置(例えば近傍の位置)に表示される。
なお、情報処理システム1は、1つの付加情報に基づく情報を出力することに限らず、複数の付加情報に基づく情報を出力してもよい。例えば、図14に示す例において、バー35の長さは、複数の入力情報における各入力回数の和(すなわち、複数のユーザによる評価ボタン31の入力回数の合計)あるいは平均値を表すように設定されてもよい。このように、情報処理システム1は、付加情報が数値(ここでは、入力回数)を表す情報である場合、出力すべき複数の付加情報が表す各数値に基づいて得られる数値(ここでは、入力回数の和)を表す情報を出力してもよい。なお、上記「出力すべき複数の付加情報」は、出力内容を1つにまとめるべき同種の付加情報(例えば、評価ボタン31に関する付加情報)であることを条件としてもよい。これによれば、複数人のユーザ(あるいは複数回の視聴)に基づく統計情報をユーザに提供することができる。また、情報処理システム1は、複数の付加情報のうち、所定の条件を満たす付加情報の数を表す情報を出力してもよい。例えば、同種の付加情報の数を表す情報が出力されてもよい。
また、他の実施形態においては、情報処理システム1は、端末装置2の表示範囲の変化に応じて付加情報の出力態様が変化するように制御してもよい。図15は、パノラマ動画とともに付加情報が表示される画像の他の一例を示す図である。なお、図15においては図14に示す場合と同様、評価ボタン31に対する入力回数を付加情報として記憶するものとする。このとき、情報処理システム1は、入力回数に応じた長さとなり、かつ、現在の表示範囲と上記入力範囲との位置関係に応じた長さとなるバー36を表示する。すなわち、バー36は、入力回数が多いほど長く表示される。さらに、バー36は、評価ボタン31(評価ボタン31に対応するオブジェクト)が表示範囲の中央に近いほど長く表示される。なお、情報処理システム1は、上記位置関係を入力範囲情報に基づいて判断することができる。また、バー36は、現在の表示範囲にかかわらず常に端末装置2の画面上に表示される。そのため、バー36の長さは、表示範囲の移動に応じて変化することとなる。なお、バー36の長さは、評価ボタン31に加えて他の評価ボタンの入力回数をも考慮して決定されてもよい。すなわち、評価が高い(入力回数が多い)オブジェクトが表示範囲内に多く存在するほどバー36が長く表示されてもよい。これによれば、ユーザは、バー36を見ながら表示範囲を移動させることで、評価が高いオブジェクトを探すことができる。
以上のように、情報処理システム1は、再生中のパノラマ動画の表示範囲と、付加情報が受け付けられた場合における表示範囲との位置関係を入力範囲情報に基づいて判断し、当該位置関係に基づいて付加情報の出力態様(バーの長さ)を変更してもよい。これによれば、表示範囲に応じて変化する情報をユーザに提示することができ、ユーザは、この情報に基づいて表示範囲を操作することができる。
なお、他の実施形態においては、情報処理システム1は、付加情報を表す画像を表示させることとともに、あるいは、表示させることに代えて、付加情報を表す音声を出力してもよい。なお、上記音声は、端末装置2から出力されてもよいし、モニタ4が備えるスピーカから出力されてもよいし、両者から出力されてもよい。
(3−3−4)付加情報の出力先
本実施形態においては、上記付加情報は端末装置2に表示される。端末装置2は、表示範囲がユーザによって操作される表示装置である。したがって、ユーザは、端末装置2を操作して表示範囲を移動させる際に付加情報を認識することができるので、付加情報をより確実にユーザに認識させることができる。
なお、他の実施形態においては、付加情報は、端末装置2とは異なる表示装置(モニタ4)に表示されてもよい。例えば、情報処理システム1は、端末装置2に対する入力に基づいて決定される表示範囲のパノラマ動画を当該端末装置2に表示させるとともに、モニタ4に付加情報を表示させてもよい。これによれば、端末装置2に表示されるパノラマ動画を見やすく提示することができる。また、端末装置2を用いるユーザ以外にモニタ4を見ている他のユーザが存在する場合には、当該他のユーザに対しても付加情報を提示することができる。また、モニタ4における表示範囲内に付加情報の入力位置が含まれる場合、あるいは、モニタ4における表示範囲と付加情報の入力範囲とが少なくとも一部において重なる場合、付加情報はモニタ4に表示されてもよい。これによって、ユーザが付加情報を見る機会を増やすことができる。
また、他の実施形態においては、情報処理システム1は、パノラマ画像の全体をモニタ4に表示してもよいし、パノラマ画像が表す空間の画像(例えば、鳥瞰図やマップ)をモニタ4に表示してもよい。このとき、モニタ4に表示される画像とともに(当該画像に重ねて)付加情報を表示してもよい。
(3−4)他のユーザによる付加情報
情報処理システム1は、端末装置2に対する入力によって入力情報を記憶する他、情報処理システム1の外部の他の装置から入力情報を取得し、当該入力情報に含まれる付加情報をパノラマ動画とともに出力してもよい。例えば、情報処理装置3は、インターネット等のネットワークを介して外部の装置と通信可能であってもよく、このとき、当該外部の装置から入力情報を取得してもよい。なお、上記「外部の装置」は、例えば、情報処理システム1と同機能のシステムに含まれる情報処理装置であってもよいし、入力情報を記憶するサーバであってもよい。上記によれば、ユーザは、他のユーザ(例えば知人や有名人)が入力した付加情報(コメント)が付加されたパノラマ動画を見ることができる。また、ユーザは、他のユーザによる付加情報を見ることで、他のユーザがパノラマ動画のどこを見ていたかを知ることができる。
[4.ガイドの出力]
本実施形態においては、パノラマ動画の再生中において、付加情報(コメント)の他にガイド情報が出力される。ガイド情報は、パノラマ画像上における目標をガイドするための情報である。ここで、目標とは、パノラマ画像上において設定される位置および/または範囲である。例えば、上述の付加情報が表示される位置が目標として設定されてもよいし、他のユーザが指定した位置が目標として設定されてもよいし、後述する履歴情報から得られる表示範囲が目標として設定されてもよい。ガイド情報は、パノラマ画像上において目標が設定される場所をユーザに通知するための情報とも言える。
図16は、表示範囲と目標との位置関係の一例を示す図である。図16において、表示範囲は領域23であり、目標は領域23の外側にある。そのため、図16に示す状態では、目標の位置に対応する情報は出力されない。このとき、仮に目標となる位置が表示範囲のすぐ近くであったとしても、ユーザは目標の存在に気づかず、表示範囲を目標の方へ移動させない可能性がある。
そこで、本実施形態においては、情報処理システム1は、目標をユーザに知らせるべく、パノラマ動画の一部領域とともにガイド情報を出力する。図17は、ガイド情報の一例を示す図である。なお、図17に示すガイド情報は、表示範囲と目標との関係が図16に示す状態となる場合に表示されるものである。図17に示すように、本実施形態においては、右方向を示す矢印を表すガイド画像41がガイド情報として表示される。これによって、目標となる位置または範囲を表示範囲に含めるためには表示範囲をどちらに動かせばよいかをユーザに通知することができる。このように、パノラマ動画とともにガイド情報が出力される場合、ユーザにガイド情報を提示することによって、現在の表示範囲が目標を含んでいない場合であっても、目標の方へ表示範囲を移動させるようにユーザを誘導することができる。なお、ガイド情報は、画像として表示されてもよいし、音声として出力されてもよい。
(4−1)目標の設定
情報処理装置3は、パノラマ画像上における範囲および/または位置を目標に設定する。目標として設定される位置および/または範囲は、どのようなものであってもよい。例えば、目標は、ユーザに対して何らかの情報が提示される位置および/または範囲であってもよい。具体的には、付加情報がパノラマ動画上に表示される場合、情報処理装置3は、付加情報に対応する位置(および/または範囲)を目標に設定してもよい。このとき、ガイド情報によって、付加情報が表示される表示範囲となるようにユーザを誘導することができる。なお、図17に示す画像は、付加情報の一例であるコメントの位置が目標に設定された場合において表示される画像の例である。また、履歴情報から生成される履歴関連情報は付加情報となり得るものであり、付加情報である履歴関連情報に対応する位置が目標に設定されてもよい。なお、詳細は後述するが、履歴情報は、パノラマ画像の再生中におけるユーザによる操作、および/または、当該操作によって決定される情報を表す。
また、情報処理装置3は、端末装置2のユーザとは別の他のユーザによって指定された位置(または範囲)を目標に設定してもよい。すなわち、情報処理装置3は、表示範囲を操作するための入力装置(端末装置2)とは異なる他の入力装置(操作装置7)に対する入力によって指定された範囲または位置を目標に設定してもよい。例えば、端末装置2の表示装置(LCD11)とは異なる他の表示装置(モニタ4)にパノラマ動画が表示される場合、情報処理装置3は、上記他の入力装置に対する入力に基づいて、当該他の表示装置に表示されるパノラマ動画上における位置(および/または範囲)を指定するようにしてもよい。このとき、指定された位置(および/または範囲)が目標に設定される。
図18は、他の表示装置において目標が設定される場合において各表示装置に表示される画像の一例を示す図である。図18において、モニタ4には、パノラマ動画とともにカーソル43が表示される。カーソル43は、操作装置7によって操作される。操作装置7を用いる他のユーザは、カーソル43を所望の位置に移動して、所定の操作(例えば、操作装置7のボタンを押下する操作)を行う。情報処理装置3は、上記所定の操作が行われた時点におけるパノラマ画像上の位置を目標に設定する。なお、本実施形態においてはカーソル43を用いて目標を設定する操作を例として説明するが、目標を設定するための操作方法はどのようなものであってもよい。また、図18では、目標の位置には付加情報を表す画像(「注目!」を表す画像)44が表示されるが、当該画像が表示されなくてもよい。目標が設定された場合、情報処理装置3は、目標に対応するガイド情報を端末装置2において出力(表示)する。例えば図18においては、端末装置2における表示範囲に対して左方向に目標が設定されるので、端末装置2においては、左方向を示す矢印を表すガイド画像45がガイド情報として表示される。
上記のように、上記他の入力装置に対する入力によって目標を設定することができる場合には、端末装置2を用いるユーザとは異なる他のユーザが目標を設定することができる。例えば、他のユーザが「おすすめの位置」を目標として他の入力装置を用いて入力することによって、端末装置2のユーザに対して「おすすめの位置」を知らせることも可能である。
また、上記他の表示装置に表示されるパノラマ動画上における位置(および/または範囲)を目標として指定することができる場合には、ある表示装置の画面上において指定された目標に対するガイド情報を別の表示装置において出力することができる。したがって、目標を設定するユーザは、他のユーザが見ている表示範囲外の場所に目標を容易に設定することができる。なお、他の実施形態においては、情報処理装置3は、端末装置2に対する入力に基づいて目標となる位置(および/または範囲)を設定し、設定された目標に対応するガイド情報をモニタ4に表示するようにしてもよい。これによっても、上記と同様の効果を奏することができる。
また、目標として設定される対象はパノラマ画像上における位置に限らず、範囲であってもよい。例えば、情報処理装置3は、パノラマ動画が別に再生される場合における表示範囲を目標に設定してもよい。ここで、「パノラマ動画が別に再生される場合」とは、ユーザの操作に従って表示範囲が決められる再生(本実施形態においては、端末装置2における再生)とは別にパノラマ動画が再生される場合である。例えば、過去にパノラマ動画が再生された場合は、「パノラマ動画が別に再生された場合」と言える。また、ユーザの操作に従って表示範囲が決められる表示装置(例えば端末装置2)とは別の表示装置(例えばモニタ4)においてパノラマ動画が再生される場合は、「パノラマ動画が別に再生された場合」と言える。上記のように、パノラマ動画が別に再生される場合、その場合における表示範囲を目標として設定し、当該表示範囲に対応するガイド情報が出力されてもよい。
図19は、表示範囲が目標として設定される場合における各表示装置に表示される画像の一例を示す図である。図19においては、モニタ4には仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画が表示され、端末装置2には視線方向が正面方向よりも右方向を向くときの表示範囲のパノラマ動画が表示される。そのため、端末装置2においては、端末装置2における表示範囲を基準にしてモニタ4の表示範囲への向きである左方向を示す矢印を表すガイド画像47がガイド情報として表示される。また、モニタ4においては、モニタ4における表示範囲を基準としたときの端末装置2の表示範囲への向きである右方向を示す矢印を表すガイド画像46がガイド情報として表示される。このように、情報処理装置3は、ある表示装置とは異なる他の表示装置にパノラマ動画が表示される場合、当該他の表示装置において表示される表示範囲を目標に設定してもよい。なお、図19においては、2つの表示装置の両方において、他の表示装置における表示範囲に対応するガイド情報が出力されるが、いずれか一方の表示装置においてのみ当該ガイド情報が出力されてもよい。
また、情報処理装置3は、過去にパノラマ動画が再生された場合における表示範囲を目標として設定してもよい。例えば、過去にパノラマ動画が再生された場合における表示範囲は、後述する履歴情報に基づいて特定することができる。情報処理装置3は、履歴情報に基づいて特定される表示範囲を目標として設定してもよい。すなわち、情報処理装置3は、現在の表示範囲を基準として、過去にパノラマ動画が再生された場合における表示範囲を向く方向を表すガイド情報をパノラマ動画とともに出力してもよい(図21参照)。なお、後述する“(表示範囲の方向を表す履歴関連情報)”において説明する履歴関連情報は、ガイド情報の1つである。
以上のように、パノラマ動画が別に再生される場合における表示範囲が目標に設定される場合には、他のユーザが見ていた(あるいは見ている)表示範囲をユーザに通知することができ、その表示範囲の方へ自分が見ている表示範囲を向けるように誘導することができる。
(4−2)目標情報の記憶
上記目標が設定される場合、情報処理装置3は、設定された目標を表す目標情報を記憶する。本実施形態においては、目標情報は、目標位置情報と、目標期間情報とを含む。目標位置情報は、目標として設定された位置および/または範囲を特定可能な情報である。目標として設定された位置および/または範囲は、上述の範囲情報(入力範囲情報)と同様に表すことができ、例えば、仮想カメラ22の姿勢(視線方向)を表すベクトルの情報によって表されてもよいし、立体モデル21上の範囲および/または位置として表されてもよい。
また、目標期間情報は、目標が設定される期間を特定可能な情報である。目標期間情報は、例えば上記期間の開始時点と終了時点とを表すものであってもよいし、目標が設定された時点(当該時点から上記期間を設定可能である場合)を表すものであってもよい。目標が設定される期間は、上述の時間情報と同様に表すことができ、例えばパノラマ画像のフレーム番号によって表されてもよい。
なお、設定される目標が上記付加情報に対応する場合(付加情報の位置に目標が設定される場合)、情報処理装置3は、付加情報に対応する入力情報に基づいて上記目標情報を設定してもよい。すなわち、目標位置情報は、入力情報に含まれる入力範囲情報に基づいて設定されてもよい。また、目標期間情報は、入力情報に含まれる時間情報に基づいて設定されてもよい。さらに、入力範囲情報がそのまま目標位置情報として用いられてもよいし、時間情報がそのまま目標期間情報として用いられてもよい。このとき、情報処理装置3は、上記入力情報とは別に目標情報を別途記憶しなくてもよい(入力情報を記憶することで、目標情報を記憶したとみなすことができる)。
(4−3)ガイド情報の出力判別の方法
本実施形態においては、ガイド情報を出力するタイミングは、当該ガイド情報に対応する目標が設定される期間に基づいて決定される。上記タイミングの具体的な決定方法はどのようなものであってもよいが、本実施形態においては、情報処理システム1は、上記期間においてガイド情報を表示する。なお、ガイド情報の表示は、上記期間の所定時間前から開始され、当該期間が終了するまで行われてもよい。
また、本実施形態において、目標が表示範囲内に位置する場合には、目標に対応するガイド情報は出力されない。例えば、現在の表示範囲内に付加情報が表示される場合、当該付加情報に対応するガイド情報は表示されない。これによって、不要なガイド情報を表示することなく、パノラマ動画および付加情報を見やすく表示することができる。
また、パノラマ動画中において複数の目標が設定される場合、情報処理システム1は、所定の条件を満たす目標についてガイド情報を出力するようにしてもよい。上記所定の条件は、例えば、特定のユーザが設定した目標(例えば、特定のユーザが入力した付加情報に対応する目標)であること、特定の種類の目標(例えば、コメントの付加情報に対応する目標)であること、および、現在の表示範囲を基準として所定の範囲内において設定される目標であること等である。これによれば、条件を満たす目標について(のみ)ガイド情報が出力されるので、出力されるガイド情報の数を減少し、パノラマ動画を見やすく表示することができる。なお、上記所定の条件は、例えばユーザによって指定されてもよい。
また、本実施形態においては、ガイド情報は、現在の表示範囲を基準として目標(目標に設定される範囲および/または位置)への向きを表す(図17参照)。情報処理装置3は、現在の表示範囲と、目標に設定される範囲および/または位置とに基づいて上記向きを決定する。例えば、上記向きは、仮想カメラ22の視線方向を表すベクトルを用いて算出することができる。より具体的には、上記向きは、現在の表示範囲の中心位置を表すベクトルを基準とした、上記目標に設定される位置(または、目標に設定される範囲の中心位置)を表すベクトルへの向きとして算出することができる。
(4−4)ガイド情報の出力態様
ガイド情報は、表示範囲と目標との関係を表す画像および/または音声である。本実施形態においては、上記のように、表示範囲を基準として目標への向きを表すガイド情報が出力される。本実施形態においては、ガイド情報は、図17に示すような矢印を表すガイド画像41であるが、ガイド情報は、ユーザに対して上記向きを通知することが可能な任意の出力態様で出力されてもよい。例えば他の実施形態においては、情報処理システム1は、上記向きを表す画像とともに(または画像に代えて)、当該向きを表す音声を出力してもよい。なお、上記音声は、端末装置2および/またはモニタ4から出力される。また、後述するようなマップの画像(図25参照)によって、表示範囲を基準として目標への向きをユーザに推測させることも可能である。本願のガイド画像によれば、表示範囲に対する目標の向きをより直感的にわかりやすく提示することができる。
また、本実施形態においては、情報処理装置3は、ガイド情報とともに、ユーザ情報を出力してもよい。ここで出力されるユーザ情報は、ガイド情報に対応する付加情報を入力したユーザを表す。例えば、図17においては、コメントを入力したユーザの名前(Aさん)を表すユーザ画像42がガイド画像41とともに表示される。これによれば、ユーザは、コメントを入力したユーザが誰であるかによってそのコメントを見るかどうか(すなわち、そのコメントの方へ表示範囲を移動させるかどうか)を判断することができる。
また、情報処理装置3は、ガイド情報とともに、目標の種類を表す情報を出力してもよい。例えば図17においては、ガイド画像41とともに、目標の種類を表す画像(「Aさんのコメント」を表す画像)42が表示される。目標の種類とは、例えば、目標の位置および/または範囲が表示範囲に含まれる場合に出力される情報の種類である。具体的には、目標の種類を表す情報は、「コメント」あるいは「評価情報」といった、出力される内容に関する種類であってもよいし、「Aさん」あるいは「Bさん」といった、情報の入力者の種類であってもよい。これによって、どのような情報が目標として設定されているかをユーザに通知することができる。ユーザは、目標へと実際に表示範囲を動かす前に、目標の場所で出力される情報の種類を知ることができる。
なお、パノラマ画像上において付加情報の位置が移動する場合、付加情報に対応する目標も付加情報の移動に応じて移動される。このとき、情報処理システム1は、ガイド情報が表す向きを目標(付加情報)の移動に応じて変化させる。すなわち、情報処理システム1は、ガイド情報を出力する間、その時点での表示範囲と、目標との位置関係を繰り返し算出し、ガイド情報が表す向きを当該位置関係に基づいて繰り返し算出してもよい。これによれば、目標が移動する場合であっても、移動に応じた正確な向きを表すガイド情報を出力することができる。
(4−5)ガイド情報の出力先
本実施形態においては、ガイド情報は、付加情報が表示される表示装置(端末装置2)に表示される(図17、図18参照)。したがって、ユーザは、端末装置2を操作して表示範囲を移動させる際にガイド情報を認識することができるので、ユーザにガイド情報をより確実に認識させることができる。なお、他の実施形態においては、ガイド情報は、付加情報が表示される表示装置とは別の表示装置(モニタ4)に表示されてもよい。これによれば、端末装置2に表示されるパノラマ動画を見やすく提示することができる。また、他の実施形態においては、2つの表示装置の両方にガイド情報が表示されてもよい。
(4−6)ガイド情報に対応する付加情報の内容
なお、付加情報に対応して目標が設定される場合、ガイド情報に対応する付加情報の内容は、ユーザが入力した付加情報に限らない。ガイド情報に対応する付加情報は、パノラマ動画の再生中における表示範囲および再生時点に関する条件が満たされる場合に、パノラマ動画とともに出力される情報であればよい。つまり、上記付加情報は、パノラマ動画が所定の再生時点となり、かつ、表示範囲が所定の範囲を含む場合にパノラマ動画とともに出力されるものであればよい。例えば、上記付加情報は、上記(3−4)で述べたような、外部の装置から取得される情報であってもよいし、パノラマ動画に予め登録されている情報であってもよい。また、後述する履歴関連情報は付加情報の一種であり、履歴関連情報に対してガイド情報が設定されてもよい。
[5.他のパノラマ動画再生を反映する出力]
本実施形態においては、情報処理システム1は、上述した「パノラマ動画が別に再生される場合」における再生内容を反映してパノラマ動画を出力することが可能である。なお、再生内容とは、パノラマ動画の表示範囲、および、表示範囲内における位置(例えばユーザによって指定された位置)を含む概念である。情報処理システム1は、例えば、過去にパノラマ動画が再生された場合に取得された履歴に基づく情報をパノラマ動画とともに出力することが可能である。また例えば、複数の表示装置において1つのパノラマ動画が同時に再生される場合において、情報処理システム1は、他の表示装置で再生されている表示範囲を表す情報を、別の表示装置においてパノラマ動画とともに出力したりすることが可能である。上記のように、本実施形態においては、情報処理システム1は、過去においてまたは他の装置においてパノラマ動画が再生される際の再生内容を、現在再生中のパノラマ動画の出力に反映する。これによって、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。例えば、他のユーザがパノラマ動画のどこを見ていたか等の興味深い情報をユーザに提示することができる。
パノラマ動画が別に再生される場合における再生内容を反映してパノラマ動画を出力する態様としては、過去に再生された再生内容を反映する第1の態様と、他の装置において同時に(リアルタイムに)再生された再生内容を反映する第2の態様とが少なくとも考えられる。第1の態様は、過去にパノラマ動画が再生された場合における再生内容を、そのパノラマ動画がその後に再生される場合に反映させる態様である。第2の態様は、少なくとも2つの表示装置において同じパノラマ動画(表示範囲は異なっていてもよい)が再生される場合に、ある表示装置における再生内容を、他の表示装置におけるパノラマ動画の再生に反映させる態様である。以下、第1の態様および第2の態様について説明する。
(5−1)第1の態様
第1の態様において、情報処理システム1は、パノラマ動画の再生中における表示範囲に関する情報を履歴情報として記憶しておき、その後において当該パノラマ動画が再生される際に、記憶した履歴情報に基づいて出力を行う(後述する第2および第3モード)。すなわち、情報処理装置3は、パノラマ動画の再生中において上述の範囲情報を取得し、情報処理装置がアクセス可能な記憶部に履歴情報として記憶する。そして、情報処理装置3は、履歴情報が記憶された後で、履歴情報に基づく情報を出力する。
上記のように、本実施形態においては、パノラマ画像の再生中において、ユーザによって操作された表示範囲を履歴情報として記憶しておくことが可能である。これによって、履歴情報に応じた出力をパノラマ動画の再生とともに行うことが可能である。例えば、情報処理装置3は、履歴情報に基づいて付加情報を生成し、当該付加情報をパノラマ動画とともに出力したり、履歴に基づいて表示範囲を制御してパノラマ動画を再生したりすることができる。これによれば、ユーザは、例えばパノラマ動画のどの位置がよく見られているか、および/または、他のユーザがパノラマ動画のどの場所を見ていたか等を知ることができる。つまり、本実施形態によれば、単にパノラマ動画を提示するだけでなく、ユーザにとって興味深い情報をパノラマ動画とともに提示することができる。以下、履歴の記憶および履歴に基づくパノラマ動画の再生の詳細について説明する。
(5−1−1)履歴情報の記憶
情報処理システム1は、パノラマ動画の再生中において、上記の履歴情報を記憶する。本実施形態において、情報処理システム1は、パノラマ動画における再生時点を特定可能な時間情報と、当該再生時点における表示範囲および/または当該表示範囲内の位置を特定可能な範囲情報とを関連づけた履歴情報を記憶する。履歴情報は、上述の記憶部(ここではメモリ6)に記憶される。図20は、履歴情報の一例を示す図である。図20に示すように、履歴情報は、上記時間情報と範囲情報との組を複数含む。本実施形態においては、時間情報はパノラマ画像のフレーム番号の情報であり、範囲情報は仮想カメラ22の姿勢を表すベクトルの情報である。本実施形態においては、時間情報と範囲情報との組がパノラマ動画の1フレーム毎に記憶されるが、他の実施形態においては、所定時間間隔で当該組が記憶されてもよいし、キーとなるフレームについて当該組が記憶されてもよいし、所定の条件が満たされたタイミングで当該組が記憶されてもよい。上記のように、時間情報と範囲情報とを関連づけた履歴情報を記憶することによって、パノラマ動画における各再生時点における表示範囲を特定することができる。
また、図20に示すように、本実施形態においては、履歴情報に対応するユーザを表すユーザ情報が履歴情報と関連づけて記憶される。なお、「履歴情報に対応するユーザ」とは、履歴情報により表される表示範囲の操作を行ったユーザである。ユーザ情報は、ユーザを特定可能な情報であればどのような情報であってもよいが、本実施形態においては、予め登録されたユーザの名前がユーザ情報として記憶される。
なお、他の実施形態においては、履歴情報には上記の情報以外の他の情報が含まれていてもよい。例えば、履歴情報は、表示範囲の大きさを示す情報(ズーム情報)を含んでいてもよい。また、履歴情報は、パノラマ動画の再生中にユーザが行った、再生に関する操作を示す情報(再生制御情報と呼ぶ)を含んでいてもよい。再生制御情報とは、例えば、パノラマ動画の再生の一時停止、巻き戻し、および早送り等の操作を示す情報である。再生制御情報は、さらに、当該操作が行われた再生時点を含んでいてもよい。また、パノラマ動画がいわゆるマルチカメラ方式である場合がある。マルチカメラ方式においては、単一の空間を異なる視点から見た複数のパノラマ動画が用意され、パノラマ動画の再生中において視点を切り替えることが可能である。この場合には、当該視点の情報を履歴情報に含めて記憶してもよい。また、上述したコメント(付加情報)がユーザによって入力される場合には、上述の入力情報と履歴情報とを関連づけて記憶しておいてもよい。つまり、上記入力情報を履歴情報の一部として記憶しておいてもよい。
(5−1−2)履歴情報を用いたパノラマ動画の再生
情報処理システム1は、上記履歴情報に基づいてパノラマ動画の再生を行うことが可能である。すなわち、情報処理システム1は、履歴情報に応じて出力内容(表示態様)を変化させてパノラマ動画を出力する。これによって、パノラマ動画を単に提示するだけでなく、履歴情報(あるいは履歴情報に基づく情報)をユーザに提示することができる。ここで、履歴情報に応じて出力内容を変化させてパノラマ動画を出力する方法としては、例えば以下の(A)〜(C)の方法が考えられる。
(A)履歴関連情報を出力する方法
本実施形態において、情報処理システム1は、履歴情報に基づいて生成される情報をパノラマ動画とともに出力することが可能である。以下では、履歴情報に基づいて生成される情報を「履歴関連情報」と呼ぶ。情報処理システム1は、以下に説明する各種の履歴関連情報を履歴情報から生成し、パノラマ動画が再生される際に当該履歴関連情報を出力する。これによれば、ユーザは、パノラマ動画の再生中に履歴関連情報を見ることにより、他のユーザの履歴に関する情報を知ることができる。
(表示範囲の方向を表す履歴関連情報)
図21は、履歴関連情報の画像の一例を示す図である。図21に示す履歴関連情報は、履歴情報により特定される表示範囲の向きをユーザに提示するものである。すなわち、図21においては、現在の表示範囲に対する、履歴情報(履歴情報に含まれる範囲情報)により特定される表示範囲の向きを表す画像51が履歴関連情報として表示される。なお、履歴関連情報である画像51は、上述のガイド情報であるとも言える。
具体的には、情報処理システム1は、履歴情報に含まれる範囲情報のうち、現在の再生時点に対応する時間情報に関連づけられる範囲情報に基づいて、パノラマ画像上の範囲または位置を特定する。そして、現在の表示範囲を基準として、算出された範囲または位置の向きを算出する。なお、この向きは、上述したガイド情報が表す向きと同様の方法で算出することができる。情報処理システム1は、算出された向きを表す画像51を端末装置2に表示させる。なお、画像51は、LCD11の画面上において、算出された向きに応じた位置(図21では、算出された向きが左向きであるので、画面左側の位置)に表示される。
上記画像51が提示されることによって、ユーザは、自分が見ている表示範囲を基準にして、他のユーザがパノラマ動画のどこを見ていたかを知ることができる。また、他のユーザが見ていた場所が気になる場合には、ユーザは、画像51が示す方向に表示範囲を移動させることによって、当該他のユーザが見ていた場所と同じ場所を見ることができる。なお、図21に示す例において、現在の表示範囲と履歴情報により特定される表示範囲とが(一部において)重なる場合には、その旨を通知する画像が表示されてもよい。
また、図21においては、履歴関連情報を表す画像51とともに、当該履歴関連情報に対応するユーザ情報(履歴情報に関連づけられて記憶されるユーザ情報)を表す画像52が表示される。これによって、ユーザは、履歴関連情報により特定される表示範囲を見ていたユーザを特定することができる。ここで、パノラマ動画は、一画面内に収まらない領域を有する動画であり、端末装置2における表示範囲はユーザが自由に操作することができる。そのため、表示範囲の位置やその変化は、パノラマ動画を見る人(ユーザ)によって異なるので、表示範囲の履歴情報はユーザの個性を反映したものと言え、このような履歴情報は他のユーザにとって有益な(興味深い)情報となり得る。したがって、履歴情報とともにユーザ情報を提示することで、パノラマ動画に対するユーザの興味を向上させることができ、パノラマ動画を何度も視聴する動機付けをユーザに与えることができる。なお、以下に説明する他の内容を表す表示態様(図22および図23)においても、履歴関連情報とともにユーザ情報が表示されてもよい。
(表示頻度を表す履歴関連情報)
図22は、履歴関連情報の画像の他の一例を示す図である。図22に示す履歴関連情報は、履歴情報から得られる、パノラマ画像上における所定の範囲についての表示頻度をユーザに提示するものである。図22においては、以前のパノラマ動画の再生において現在の表示範囲が表示された回数を表す画像53が履歴関連情報として表示される。なお、上記表示頻度をユーザに提示するための画像は、回数を表す画像53の他、どのようなものであってもよい。情報処理装置3は、例えば、履歴情報に含まれる範囲情報から得られる位置およびまたは範囲毎にユーザ情報(各ユーザを表すキャラクタ等)をパノラマ動画とともに表示するようにしてもよい。これによれば、以前のパノラマ動画の再生において現在の表示範囲が表示された回数に応じた数のユーザ情報が表示されるので、ユーザは、表示されるユーザ情報の数によって当該回数の多寡を知ることができる。
上記回数を表示頻度として算出する場合、情報処理システム1はまず、履歴情報に含まれる範囲情報のうち、現在の再生時点に対応する時間情報に関連づけられる範囲情報を選出する。そして、選出された範囲情報に基づいて、パノラマ画像上の範囲または位置を特定し、特定された範囲または位置が現在の表示範囲に含まれるか否かを判定する。情報処理システム1は、記憶部に記憶される各履歴情報について上記の判定を行い、判定結果が肯定となる履歴情報の数をカウントする。以上のようにしてカウントされた数を表す画像53が端末装置2に表示される。画像53の履歴関連情報は、複数の履歴情報から得られる統計を表すものである。また、画像53は、LCD11の画面上における所定位置に表示される。なお、情報処理システム1は、画像53を繰り返し(例えば、1フレーム毎に)更新してもよい。
上記回数は、記憶されている1以上の履歴情報のうちで、時間情報に関する条件(時間情報が現在の再生時点に対応すること)と、範囲情報に関する条件(範囲情報が表す範囲または位置が現在の表示範囲に含まれること)とを満たす履歴情報の数であった。これによって、複数回のパノラマ動画の再生を対象とした表示頻度を算出することができ、当該表示頻度をユーザに提示することができる。すなわち、上記画像53が提示されることによって、ユーザは、自分が見ている表示範囲が他のユーザにどの程度見られているかを知ることができる。例えばユーザは、人気が高い(他のユーザによく見られている)範囲に表示範囲を合わせてパノラマ動画を再生したり、逆にあまり見られていない範囲に表示範囲を合わせてパノラマ動画を再生したりすることができる。また、上記画像53によって、複数人のユーザ(あるいは複数回の視聴)に基づく統計情報をユーザに提供することができる。
なお、履歴情報から算出される表示頻度は、複数回のパノラマ動画の再生を対象としたものに限らず、1回のパノラマ動画の再生を対象としたものであってもよい。つまり、表示頻度は、1回のパノラマ動画の再生において、パノラマ画像中の所定範囲がどの程度見られたかを表すものであってもよい。図23は、履歴情報に基づく履歴関連情報の画像の他の一例を示す図である。図23に示す履歴関連情報は、上述のオブジェクト情報が表すオブジェクトに関するものであり、1回のパノラマ動画の再生においてオブジェクト(オブジェクトの範囲)がどの程度見られたか(表示されたか)を表す。すなわち、図23においては、現在の表示範囲内のオブジェクトについて、履歴情報に基づいて判断されるオブジェクトの表示頻度(注目度合い)を表す画像54が履歴関連情報として表示される。なお、図23に示すように、履歴関連情報を表す画像54は、当該履歴関連情報に対応するオブジェクトの位置(範囲)に関連づけて表示される。上記画像54が提示されることによって、ユーザは、パノラマ動画を他のユーザが再生した際にそのオブジェクトをどの程度注目していたかを知ることができる。
1回のパノラマ動画の再生を対象とした表示頻度を算出する場合、情報処理システム1は、履歴情報に含まれる範囲情報のうちで、パノラマ画像上における位置に関する所定の条件を満たす範囲情報の数を算出する。具体的に本実施形態においては、情報処理システム1は、履歴情報に含まれる各範囲情報について、範囲情報により特定される表示範囲内に上記オブジェクトが含まれているか否かを判定する。なお、この判定は、各範囲情報と上記オブジェクト情報とに基づいて行うことができる。情報処理システム1は、上記の判定の結果が肯定となる範囲情報の数をカウントし、カウントされた数に応じた注目度合いを判断する。例えば、上記の数が所定数以上である場合には、当該オブジェクトに関連づけて注目度合いが高いことを表す画像54が履歴関連情報として出力される。一方、上記の数が所定数より小さい場合には、注目度が低いことを表す画像が履歴関連情報として出力されてもよいし、履歴関連情報が出力されなくてもよい。
なお、他の実施形態においては、複数回のパノラマ動画の再生を対象としてオブジェクトの表示頻度(注目度合い)を表す履歴関連情報を算出することも可能である。このとき、情報処理システム1は、上記範囲情報の数を算出する処理を、記憶部に記憶されている各履歴情報について行う。
また、履歴関連情報が表す表示頻度は、パノラマ画像中の所定範囲に関する表示頻度を表すものであればよく、当該所定範囲は、表示範囲でもよいし、オブジェクトの範囲でもよい。
また、表示頻度(注目度合い)は、上述した再生制御情報を用いて決定されてもよい。例えば、情報処理システム1は、ユーザが再生を一時停止した時点で表示範囲に含まれるオブジェクトについて注目度合いが高いと判断してもよい。また例えば、巻き戻しによって何回も繰り返し再生された期間に表示されていた範囲については、表示頻度(あるいは注目度合い)が高いと判断してもよい。
なお、履歴関連情報は、例えば画像54のように、パノラマ画像上における特定の位置に表示されることがあり得る。この場合、情報処理システム1は、上記(3−3−2)で説明した付加情報と同様、履歴関連情報を、当該履歴関連情報に対応するオブジェクトの移動に合わせて移動させて表示するようにしてもよい。
また、他の実施形態においては、情報処理システム1は、履歴関連情報を表す画像を表示させることとともに、あるいは、表示させることに代えて、履歴関連情報を表す音声を出力してもよい。なお、上記音声は、端末装置2および/またはモニタ4から出力される。
(履歴関連情報の出力先)
本実施形態においては、履歴関連情報も上記[3.ユーザによるコメントの入力]等で説明した付加情報と同様、端末装置2に表示される。これによって、ユーザに履歴関連情報をより確実に認識させることができる。なお、履歴関連情報も上記付加情報と同様、モニタ4に表示されてもよい。これによれば、端末装置2に表示されるパノラマ動画を見やすく提示することができる。また、他の実施形態において、情報処理システム1は、モニタ4にパノラマ画像の全体を表示し、全体のパノラマ画像とともに(全体のパノラマ画像に重ねて)履歴関連情報を表示してもよい。
(B)履歴情報に基づいて決定される表示範囲を再生する方法
本実施形態において、情報処理システム1は、履歴情報に基づいて表示範囲を決定してパノラマ動画を再生することが可能である。具体的には、情報処理システム1は、パノラマ動画の各再生時点(各フレーム)における表示範囲を、履歴情報に記憶されている範囲情報に基づいて決定する。そして、決定された表示範囲のパノラマ画像を表示装置に表示させる。これによって、ユーザは、履歴情報が記憶された場合と同じ表示範囲でパノラマ動画を再生することができる。
本実施形態においては、履歴情報に基づいて決定された表示範囲のパノラマ動画は、モニタ4に表示される。一方、端末装置2には、ユーザ入力に基づいて決定される表示範囲のパノラマ動画が表示される。これによって、ユーザは、端末装置2を用いて所望の表示範囲でパノラマ動画を見ることができるとともに、それと同時に、他のユーザが見ていた表示範囲でパノラマ動画を見ることができる。なお、他の実施形態においては、情報処理システム1は、履歴情報に基づいて決定された表示範囲のパノラマ動画を単に1つの表示装置(端末装置2またはモニタ4)によって再生してもよい。また、他の実施形態において、パノラマ画像の全体、あるいは、パノラマ画像が表す空間の画像(例えば、鳥瞰図やマップ)がモニタ4に表示される場合、モニタ4に表示される画像とともに(当該画像に重ねて)履歴関連情報が表示されてもよい。
図24は、履歴情報に基づいて決定された表示範囲のパノラマ動画がモニタ4に表示される場合の一例を示す図である。図24においては、仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画55とともに、履歴情報に基づいて決定された表示範囲のパノラマ動画56がモニタ4に表示される。このように、履歴情報に基づく表示範囲のパノラマ動画56は、モニタ4の画面領域の一部に表示されてもよい。履歴情報に基づく表示範囲のパノラマ動画56は、端末装置2の画面領域の一部に表示されてもよい。また、例えば、複数の履歴情報からそれぞれ複数の表示範囲が決定され、決定された各表示範囲のパノラマ動画(複数のパノラマ動画)が、モニタ4および/または端末装置2に表示されてもよい。
また、表示範囲は、複数の履歴情報に基づいて決定されてもよい。例えば、情報処理システム1は、表示頻度が高い表示範囲を、複数の履歴情報を用いて特定し、特定された表示範囲のパノラマ動画を表示するようにしてもよい。
(C)パノラマ動画とともに他の画像を表示する方法
また、他の実施形態においては、情報処理システム1は、履歴情報に基づいて補助画像を生成し、当該補助画像をパノラマ動画とともに表示してもよい。補助画像は、履歴情報に基づいて決定される表示範囲に応じた画像であり、換言すれば、当該表示範囲をユーザに認識させることができる画像である。補助画像としては、例えば、パノラマ動画が表す空間を上方から見たマップ(あるいは俯瞰図)の画像が考えられる。
図25は、パノラマ動画とともに補助画像が表示される場合の一例を示す図である。図25においては、現在の表示範囲のパノラマ動画61とともに、パノラマ動画が表すマップ画像62が補助画像として端末装置2に表示される。マップ画像62は、パノラマ動画61が表す空間を上方から見たマップを表す画像である。マップ画像62は、例えば視点画像63を含む。視点画像63は、マップ上における視点の位置を表す。すなわち、カメラを表す視点画像63が、マップ上における視点の位置に配置される。なお、視点の移動方向および移動速度が予めわかる場合、マップ上における視点の位置は、現在の再生時点(フレーム番号)から特定することができる。
また、視点画像63は、マップ上における視線方向を表す。すなわち、カメラを表す視点画像63は、マップ上における視線方向を向くように配置される。上記視線方向は、履歴情報に基づいて決定される表示範囲から(例えば仮想カメラ22の姿勢を用いて)算出することができる。このように、情報処理装置3は、範囲情報に基づく表示範囲に対応する視線方向を表す画像(視点画像63)を表示装置に表示させてもよい。これによって、他のユーザが見ていた方向をユーザに提示することができる。なお、図25においては、視点画像63は、履歴情報に基づく表示範囲に対応する視線方向を表すが、履歴情報に基づく位置に対応する視線方向を表すものであってもよい。
また、マップ画像62は、履歴関連情報を含んでいてもよい。例えば図25においては、注目度合いが高いことを表す画像64がマップ上に配置される。このとき、履歴関連情報はパノラマ動画61上にも表示されてもよいし、されなくてもよい。このように、情報処理装置3は、パノラマ動画が表す空間と、範囲情報に基づく位置(パノラマ動画上における位置。ここでは履歴関連情報の位置)に対応する当該空間内における位置とを表す画像を表示装置に表示させてもよい。これによって、範囲情報が表す位置を、パノラマ動画とは異なる視点から見た画像で表現することができ、当該位置をよりわかりやすくユーザに提示することができる。
なお、履歴関連情報のマップ上における位置は、履歴関連情報のパノラマ動画上における位置から算出することができる。マップ上における位置は、どのような方法で算出されてもよい。例えば、パノラマ動画上の位置(あるいは仮想カメラ22の姿勢)と、マップ上における位置とを予め対応づけた情報を用意してくことで、パノラマ動画上の位置から当該情報に基づいてマップ上の位置を算出することができる。また例えば、上記オブジェクト情報が用意される場合には、オブジェクト情報により表されるオブジェクトに関するマップ上の位置を予め算出しておき、パノラマ動画上の位置からオブジェクトを特定し、オブジェクトからマップ上の位置を特定するようにしてもよい。
以上のように、履歴情報に基づく表示範囲および/または履歴関連情報は、マップ画像を用いて表すことも可能である。履歴情報に基づく表示範囲および/または履歴関連情報を、パノラマ動画とは別の補助画像上に表示することによって、パノラマ動画を見やすく表示することができる。
また、他の実施形態においては、情報処理システム1は、上記の(A)〜(C)の方法のうちのいくつかを同時に用いてパノラマ動画を再生してもよい。例えば、情報処理システム1は、パノラマ動画とともに履歴関連情報を端末装置2に表示しつつ、履歴情報に基づいて決定された表示範囲のパノラマ動画をモニタ4に表示するようにしてもよい。
(5−1−3)履歴情報の取得
過去に再生された再生内容を反映する第1の態様において、履歴情報を取得する装置と、履歴情報を反映させる装置とは同じ装置であってもよいし、異なる装置であってもよい。すなわち、情報処理装置3は、履歴情報を反映したパノラマ動画を表示する表示装置において再生されるパノラマ動画に関する範囲情報を履歴情報として取得してもよい。また、情報処理装置3は、履歴情報を反映したパノラマ動画を表示する表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得してもよい。このとき、例えば上記(B)で述べたように、情報処理装置3は、2つの表示装置を用いてパノラマ動画を再生してもよい。すなわち、情報処理装置3は、パノラマ動画が上記表示装置(本実施形態においては端末装置2)において表示される間、所定の入力装置に対する入力に基づいて表示範囲を決定し、決定された表示範囲のパノラマ動画を上記他の表示装置(本実施形態においてはモニタ4)に表示させてもよい(図24)。
情報処理システム1は、端末装置2に対する入力に応じて履歴情報を記憶する他、情報処理システム1の外部の他の装置から履歴情報を取得してもよい。そして、取得された履歴情報に応じて出力内容を変化させてパノラマ動画を出力するようにしてもよい。例えば、情報処理装置3は、インターネット等のネットワークを介して外部の装置と通信可能であってもよく、このとき、当該外部の装置から履歴情報を取得してもよい。これによれば、ユーザは、他のユーザ(例えば知人や有名人)の履歴情報に基づく情報をパノラマ動画とともに見ることができる。
なお、外部の装置から履歴情報を取得する場合において、履歴情報には、当該履歴情報により表される入力を行ったユーザを表すユーザ情報が含まれていてもよい。このとき、情報処理システム1は、パノラマ動画を出力する場合にユーザ情報を出力してもよい。例えば、履歴関連情報を出力する場合には、履歴関連情報とともにユーザ情報を出力してもよいし(図20参照)、履歴情報に基づいて表示範囲を決定する場合には、決定された表示範囲のパノラマ動画とともにユーザ情報を出力してもよい。
(5−2)第2の態様
本実施形態において、情報処理システム1は、2つの表示装置(端末装置2およびモニタ4)において同じパノラマ動画を再生させ、一方の表示装置における再生内容を、他の表示装置におけるパノラマ動画の再生に反映させる(後述する第4モード)。すなわち、情報処理装置3は、パノラマ動画が表示装置(例えばモニタ4)において表示される間に、当該表示装置とは別の他の表示装置(例えば端末装置2)において当該パノラマ動画を出力させる。そして、情報処理装置3は、上記他の表示装置(端末装置2)においてパノラマ動画が再生される場合に上記範囲情報を取得する。さらに、情報処理装置3は、他の表示装置(端末装置2)においてパノラマ動画が再生される間に、取得された範囲情報に応じて出力内容を変化させて表示装置(モニタ4)にパノラマ動画を表示させる。
上記によれば、複数のユーザが同時に1つのパノラマ動画を見ている場合において、他のユーザがパノラマ動画のどの場所を見ているかという、ユーザにとって興味深い情報をパノラマ動画とともに提示することができる。以下、他の装置において同時に再生された再生内容を反映する第2の態様について詳細を説明する。
(5−2−1)範囲情報の取得
第2の態様において、情報処理システム1は、パノラマ動画が再生される際、少なくとも範囲情報を取得する。本実施形態においては、情報処理装置3は、端末装置2およびモニタ4においてパノラマ動画を再生させる際、端末装置2における再生に関する範囲情報を取得する。なお、第2の態様においては、ある表示装置における再生において取得した範囲情報をリアルタイムで別の表示装置における再生に反映させるので、時間情報は必ずしも取得されなくてもよい。ただし、現時点で取得した範囲情報に加えて、過去に取得した範囲情報に基づいて出力内容を変化させる場合には、情報処理装置3は、上記第1の態様と同様、範囲情報とともに時間情報を取得してもよい。また、情報処理装置3は、範囲情報とともに、ユーザ情報、ズーム情報、および再生制御情報等のうちいくつかを取得してもよい。
(5−2−2)範囲情報を用いたパノラマ動画の再生
情報処理システム1は、上記範囲情報に基づいてパノラマ動画の再生を行う。すなわち、情報処理システム1は、範囲情報に応じて出力内容(表示態様)を変化させてパノラマ動画を出力する。これによって、パノラマ動画を単に提示するだけでなく、他の表示装置における再生内容に関する情報(範囲情報)をユーザに提示することができる。第2の態様において、範囲情報に応じて出力内容を変化させてパノラマ動画を出力する方法としては、例えば以下の方法が考えられる。
本実施形態においては、情報処理装置3は、端末装置2における再生によって取得された範囲情報に基づいて決定される表示範囲をモニタ4において再生する。すなわち、端末装置2における表示範囲のパノラマ動画の画像を、モニタ4の一部領域において表示させる。具体的には、情報処理装置3は、パノラマ動画がモニタ4において表示される間、所定の入力装置(端末装置2)に対する入力に基づいて表示範囲を決定し、決定される表示範囲のパノラマ動画を端末装置2に表示させる。そして、情報処理装置3は、所定の範囲のパノラマ動画をモニタ4に表示させるとともに、上記範囲情報に基づく表示範囲のパノラマ動画をモニタ4に表示させる。このとき、モニタ4に表示される画像については、例えば図24と同様、仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画55とともに、上記範囲情報に基づく表示範囲のパノラマ動画がモニタ4の一部の領域に表示されてもよい。
上記によれば、モニタ4を見ることで端末装置2の再生内容を確認することができる。ここで、端末装置2は可搬型であるので、端末装置2の表示画面を複数人で見ると見づらくなる。これに対して、モニタ4に端末装置2の再生内容を表示することで、端末装置2のユーザ以外の他のユーザは端末装置2の再生内容を容易に確認することができる。これによって、端末装置2のユーザと他のユーザとの間でコミュニケーションが図りやすくなり、例えば表示範囲を操作しない他のユーザもパノラマ動画を十分に楽しむことができる。
なお、端末装置2において表示範囲が操作されるパノラマ動画をモニタ4に表示する場合、他のユーザは、自身が操作しない表示範囲のパノラマ動画を見ることになる。このとき、表示範囲の変化が大きい場合には、他のユーザはパノラマ動画を見づらく感じるおそれがある。例えば、表示範囲が急激に変化する場合等には、他のユーザはパノラマ動画を見づらく感じるおそれがある。また例えば、本実施形態のように端末装置2自体を動かすことで表示範囲が移動する場合に、手ぶれによる表示範囲の小さな移動(揺れ)が生じると、他のユーザはパノラマ動画を見づらく感じるおそれがある。そのため、情報処理装置3は、範囲情報に基づいて決定される表示範囲における変化を軽減してパノラマ動画を表示装置(モニタ4)に表示させてもよい。これによって、他のユーザにとってより見やすいパノラマ動画を提供することができる。なお、表示範囲の変化を軽減する方法としては、例えば以下の方法が考えられる。
例えば、端末装置2にパノラマ動画を表示するための端末装置用仮想カメラと同じ視点に同じ視線方向となるモニタ用仮想カメラを仮想世界に設定し、当該端末装置用仮想カメラの動きと基本的に同じ動きで当該モニタ用仮想カメラを動作させる。そして、第1の制御例として、実空間における端末装置2の向きの単位時間当たり変化量が所定の閾値未満である場合や、端末装置2の動きを検出するセンサ(加速度センサ14、ジャイロセンサ15等)から出力される値(加速度や角速度を示す値)が所定の閾値未満である場合等には、上記モニタ用仮想カメラの姿勢を固定して、手ぶれによる画像の相対的に小さな揺れを防止する。そして、上記変化量や出力値が0になった場合や当該閾値以上となった場合に上記端末装置用仮想カメラの姿勢に近づくまたは同じとなるように当該モニタ用仮想カメラの姿勢を制御する。
第2の制御例として、実空間における端末装置2の向きの単位時間当たり変化量が所定の閾値以上である場合や、端末装置2の動きを検出するセンサから出力される値が所定の閾値以上である場合等には、上記モニタ用仮想カメラの動きを制限して、視線方向の相対的に大きな変化を抑制する。そして、上記変化量や出力値が当該閾値未満となった場合に上記端末装置用仮想カメラの姿勢に近づくように当該モニタ用仮想カメラの姿勢を制御する。
第3の制御例として、上記端末装置用仮想カメラの動きに所定の割合で追従するように上記モニタ用仮想カメラの動きを制御することによって、手ぶれによる画像の相対的に小さな揺れや視線方向の相対的に大きな変化を抑制する。具体的には、上記端末装置用仮想カメラの視線方向と上記モニタ用仮想カメラの視線方向との角度差に対して所定の割合(例えば、50%)だけ、当該端末装置用仮想カメラの視線方向に近づくように当該モニタ用仮想カメラの視線方向が常に変化するように制御する。
上記の制御例の1つまたは組み合わせを用いて姿勢制御されるモニタ用仮想カメラから見た上記立体モデル内面の画像をモニタ4に表示することによって、端末装置2に表示しているパノラマ動画の視線方向の変化を軽減した画像をモニタ4に表示することができる。
また、上述した説明では、ある表示装置に表示しているパノラマ動画を他の表示装置に表示する場合において、表示範囲の移動の変化を軽減する例を説明した。なお、他の実施形態においては、表示範囲が拡大または縮小する際の変化を軽減することも考えられる。例えば、端末装置2を把持するユーザが端末装置2に表示されているパノラマ動画を拡大表示または縮小表示する操作を行った場合、LCD11には当該操作に応じて拡大または縮小したパノラマ動画がそのまま表示される。一方、端末装置2に対する操作に応じて拡大または縮小して端末装置2に表示されたパノラマ動画をモニタ4にも表示する場合、当該パノラマ動画の拡大率または縮小率が所定の閾値以上となる場合は、拡大率または縮小率を当該閾値に抑制したパノラマ動画をモニタ4に表示する。また、端末装置2に対する操作に応じて、パノラマ動画を拡大してから縮小するまでの時間またはパノラマ動画を縮小してから拡大するまでの時間が所定時間以内に行われた場合、当該所定時間内に行われた縮小または拡大を抑制したパノラマ動画をモニタ4に表示する。このような制御例の1つまたは組み合わせを用いてパノラマ動画の拡大または縮小を制御したパノラマ動画をモニタ4に表示することによって、端末装置2に拡大または縮小する画像変化を軽減したパノラマ動画をモニタ4に表示することができる。
また、他の実施形態において、情報処理装置3は、範囲情報に基づく表示範囲または位置に対応する視線方向を表す画像をパノラマ動画とともに表示装置に表示させてもよい。図26は、視線方向を表す画像の一例を示す図である。図26においては、端末装置2には、端末装置2の姿勢に応じた視線方向(ここでは正面方向よりもやや右向きの視線方向)に対応する表示範囲のパノラマ動画が表示される。モニタ4には、仮想カメラ22の視線方向が正面方向を向くときの表示範囲のパノラマ動画65とともに、範囲情報に基づく表示範囲または位置に対応する視線方向を表す画像66が表示される。本実施形態においては、上記視線方向を表す画像66は、端末装置2のユーザを模したキャラクタが端末装置を把持した様子を表す。このとき、キャラクタが把持する端末装置の姿勢は、端末装置2の実際の姿勢に対応するように変化する。端末装置2の姿勢は上記視線方向に対応しているので、端末装置2の姿勢を表す画像66を表示することによって、ユーザに上記視線方向を通知することができる。なお、図26では、画像66によって表されるキャラクタの向きは、端末装置2のユーザの向きと同じとなるように制御される。これに対して他の実施形態においては、キャラクタの顔が見えやすいように、端末装置2のユーザの向きに対して前後方向を逆にした向きを向くように(つまり、端末装置2のユーザの鏡像となるように)、当該キャラクタの向きが制御されてもよい。また、他の実施形態においては、上記視線方向を表す画像として、マップ画像62および視点画像63がパノラマ動画とともに表示されてもよい。これによっても、ユーザに上記視線方向を通知することができる。
また、他の実施形態において、情報処理装置3は、パノラマ動画の再生中においてユーザによって指定された位置を表す範囲情報を取得し、当該範囲情報に基づいて決定されるパノラマ画像上における位置を表す画像をパノラマ動画とともに表示装置に表示させてもよい。例えば、端末装置2においてパノラマ動画上のある位置に対して付加情報が入力された場合、モニタ4においても当該位置に当該付加情報を表示するようにしてもよい。図27は、範囲情報に基づく位置を表す画像がパノラマ画像とともに表示される場合の一例を示す図である。図27においては、端末装置2の表示範囲内において、付加情報を表す画像67が入力されて表示されたものとする。このとき、情報処理装置3は、表示範囲内において付加情報が入力された位置を表す範囲情報を取得する。そして、情報処理装置3は、モニタ4に表示される表示範囲において、取得された範囲情報が表す位置に、上記付加情報を表す画像68を表示させる。これによって、ユーザは、端末装置2において入力された付加情報をモニタ4においても確認することができ、端末装置2のユーザ以外の他のユーザも付加情報を確認することができる。なお、取得された範囲情報が表す位置が、モニタ4における表示範囲外にある場合には、上記画像68はモニタ4に表示されない。この場合、情報処理装置3は、上述したガイド画像をモニタ4に表示してもよい。また、上記画像68が表示される期間は、対応する付加情報を表す画像67が端末装置2に表示される期間に基づいて決定される。そのため、情報処理装置3は、付加情報が入力された位置を表す範囲情報を取得するとともに、上記期間を表す時間情報を取得してもよい。
なお、本実施形態においては、端末装置2における再生内容をモニタ4に反映させる場合を例として説明した。ここで、他の実施形態においては、情報処理装置3は、モニタ4における再生内容を端末装置2に反映させるようにしてもよい。例えば、情報処理装置3は、モニタ4における表示範囲のパノラマ画像を端末装置2において表示させるようにしてもよい。また例えば、モニタ4における表示範囲内の位置を上記操作装置7によって指定することが可能な場合には、情報処理装置3は、モニタ4における表示範囲内において指定された位置を表す画像を端末装置2に表示させるようにしてもよい。
以上のように、上記第1の態様および第2の態様においては、情報処理装置3は、パノラマ動画の再生中において、所定の入力装置(端末装置2)に対する入力に基づいて決定される表示範囲(および/または当該表示範囲内の位置)を特定可能な範囲情報を取得する。そして、パノラマ動画を表示装置(モニタ4)を用いて出力する場合、取得された範囲情報に応じて出力内容を変化させてパノラマ動画を出力する。これによって、過去においてまたは他の装置においてパノラマ動画が再生される際の再生内容を、現在再生中のパノラマ動画の出力に反映することができ、パノラマ画像を再生する際により多くの情報をユーザに提示することができる。
(5−3)再生終了後における履歴情報に基づく出力
なお、上記第1の態様においては、範囲情報が履歴情報として記憶される。情報処理装置3は、パノラマ動画の再生が終了した後において当該再生時に取得された履歴情報に基づく情報を出力するようにしてもよい。例えば、情報処理装置3は、パノラマ動画の再生中において表示頻度が高かったオブジェクト、あるいは、複数回の再生において表示頻度が高かった表示範囲を再生終了後に提示することができる。これによれば、パノラマ動画の再生中にユーザがどこを見ていたか、という興味深い情報をユーザに提示することができる。
例えば、情報処理装置3は、パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として表示装置(端末装置2および/またはモニタ4)に表示させてもよい。以下、パノラマ動画の再生終了後に、履歴情報に基づいて決定される表示範囲のパノラマ画像を提示する例について説明する。
図28は、パノラマ動画の再生終了後において表示される画像の一例を示す図である。図28においては、パノラマ動画の再生中において表示頻度が高かったオブジェクトを含むパノラマ画像68がモニタ4に表示される。このとき、上記オブジェクトを指し示す画像69が表示されてもよい。なお、情報処理装置3は、上記オブジェクトを含むパノラマ画像を、静止画として表示してもよいし、動画として表示してもよい。このように、報処理装置3は、パノラマ動画の再生中において表示頻度が高かったオブジェクト(つまり、よく見られていたオブジェクト)を、再生終了後において表示してもよい。
具体的には、情報処理装置3は、(パノラマ動画の再生中において)上記範囲情報を履歴情報として取得しておく。そして、情報処理装置3は、履歴情報によって特定される表示範囲に、パノラマ動画中に登場するオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出する。なお、上記の判別は、例えば履歴情報と上述のオブジェクト情報とを用いて行うことが可能である。例えば、情報処理装置3は、パノラマ動画に登場する複数のオブジェクトについて表示時間を上記の判別によって算出し、表示時間が長い(表示頻度が高い)オブジェクトを選出してもよい。パノラマ動画の再生後において、情報処理装置3は、選出されたオブジェクトが含まれる表示範囲のパノラマ画像を表示装置(例えばモニタ4)に表示させる。
上記において、情報処理装置3は、パノラマ動画の再生中において表示頻度が高いオブジェクトを表す範囲情報を履歴情報として取得しておき、再生後に当該履歴情報が表すオブジェクトを特定するようにしてもよい。具体的には、情報処理装置3は、(パノラマ動画の再生中において)パノラマ動画の再生中における表示範囲にオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出する。なお、この判別も第1の方法と同様、例えば上述のオブジェクト情報を用いて行うことが可能である。情報処理装置3は、選出されたオブジェクトを表す情報を範囲情報として記憶する。このように、オブジェクトを表す情報からパノラマ動画上における表示範囲および/または表示範囲内の位置を特定可能である場合には、当該オブジェクトを表す情報が範囲情報として記憶されてもよい。パノラマ動画の再生後において、情報処理装置3は、範囲情報が表すオブジェクトが含まれる表示範囲のパノラマ画像を表示装置(例えばモニタ4)に表示させる。
また、情報処理装置3は、複数の履歴情報がある場合、複数の履歴情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として表示装置に表示させてもよい。例えば、情報処理装置3は、パノラマ動画の再生後において、複数の履歴情報に基づいて、パノラマ動画の領域のうちで表示頻度が高い範囲(あるいは位置)を特定する。そして、特定された表示範囲のパノラマ画像を表示装置(例えばモニタ4)に表示させる。
なお、他の実施形態においては、情報処理装置3は、オブジェクトあるいは表示範囲について、表示頻度の高い順に複数の表示範囲のパノラマ画像を表示してもよい。これによって、ユーザは、パノラマ動画のうちでよく見られている場所(対象)のランキングを知ることができる。また、情報処理装置3は、表示頻度が低いオブジェクトあるいは表示範囲(例えば、まだ表示されたことのないオブジェクトを含む表示範囲)のパノラマ画像を表示してもよい。これによって、パノラマ動画のうちであまり見られていない場所をユーザに通知することができる。
上記(5−1)〜(5−3)にて説明したように、本実施形態においては、情報処理システム1は、パノラマ動画の再生中に取得された範囲情報に応じて出力内容を変化させてパノラマ動画の少なくとも一部を出力する。これによって、パノラマ動画の再生時における情報(例えば、ユーザがどこの表示範囲を見ていたか等)をユーザに提示することができる。
[6.本実施形態の具体的な処理例]
以下、図29〜図33を参照して、本実施形態に係る情報処理システム1の具体的な処理および動作を説明する。図29は、本実施形態において情報処理システム1の記憶部(メモリ6)に記憶されるデータの一例を示す図である。図29に示すように、情報処理装置3のメモリ6には、情報処理プログラム70、パノラマ動画データ71、および処理用データ72が記憶される。なお、メモリ6には、図29に示すデータの他、端末装置2から取得した操作データや、各表示装置へ出力すべき画像やそれを生成するために用いられる画像のデータ等が記憶されてもよい。
情報処理プログラム70は、情報処理装置3のコンピュータ(CPU5)に実行させるためのプログラムである。なお、情報処理プログラム70は、情報処理装置3がアクセス可能であって情報処理装置3の内部または外部に設けられるプログラム格納部(記憶装置または記憶媒体等)に記憶されている。プログラム格納部に記憶される情報処理プログラム70の一部または全部が適宜のタイミングで読み込まれてメモリ6に記憶され、CPU5によって実行される。また、情報処理プログラム70の一部または全部は、情報処理プログラム70を実行する情報処理装置内に(例えばライブラリとして)予め記憶されていてもよい。
パノラマ動画データ71は、情報処理システム1において再生されるパノラマ動画データを表す。パノラマ動画データ71には、パノラマ動画を構成する複数のパノラマ画像のデータが含まれる。なお、パノラマ動画データ71には、上述したオブジェクト情報のデータおよび/または付加情報のデータが含まれていてもよい。
処理用データ72は、CPU5において実行される情報処理(図30〜図33)において用いられるデータである。処理用データ72は、表示範囲データ73、入力情報データ74、履歴情報データ75、および、範囲情報データ76を含む。
表示範囲データ73は、ユーザの入力に応じて決定される上記表示範囲を表す。表示範囲データ73は、パノラマ画像上における位置または範囲を示す情報であってもよいし、仮想カメラ22の姿勢を表すベクトルを示す情報であってもよい。入力情報データ74は、上記入力情報を表すデータであり、例えば“(3−2)付加情報の記憶”で述べた各情報を含む(図6参照)。履歴情報データ75は、上記履歴情報を表すデータであり、例えば“(5−1−1)履歴情報の記憶”で述べた各情報を含む(図20参照)。範囲情報データ76は、パノラマ動画の再生中において取得される上記範囲情報を表すデータである。
次に、本実施形態における情報処理の詳細な流れを説明する。本実施形態においては、情報処理システム1が起動されると、情報処理装置3のCPU5は、メモリ6等の記憶部を初期化し、プログラム格納部から情報処理プログラム70をメモリ6に読み込む。そして、CPU5によって当該情報処理プログラム70の実行が開始される。
ここで、本実施形態においては、情報処理システム1は、以下の4種類のモードでパノラマ動画を再生することができる。
・第1モード:パノラマ動画を再生中において上記付加情報の入力を受け付けるとともに、履歴情報を記憶するモード
・第2モード:パノラマ動画の再生中において上記付加情報、ガイド情報、および履歴関連情報を出力するモード
・第3モード:上記履歴情報に基づいて表示範囲を決定してパノラマ動画を再生するモード
・第4モード:2つの表示装置でパノラマ動画を再生し、一方の表示装置の再生内容を他方の表示装置における再生に反映させるモード
上記第1〜第4モードのいずれが実行されるかは、どのように決定されてもよく、例えばユーザの選択によって決定される。なお、情報処理システム1は、いずれか1つのモードのみを実行可能であってもよい。以下、図30〜図33を参照して、各モードにおける動画再生処理の流れを説明する。
なお、図30〜図33に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。また、本実施形態では、上記フローチャートの各ステップの処理をCPU5が実行するものとして説明するが、上記フローチャートにおける一部のステップの処理を、CPU5以外のプロセッサや専用回路が実行するようにしてもよい。
(第1モードの再生動作)
図30は、本実施形態において情報処理装置3のCPU5が実行する第1モードの動画再生処理の流れの一例を示すフローチャートである。第1モードの実行が選択された場合、CPU5は、図30に示す処理を実行する。
まずステップS1において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。上記ステップS1の処理は、例えば上記“[2.パノラマ動画の再生]”で述べた方法で行われる。なお、ステップS1において、表示範囲を決定するための端末装置2の姿勢はどのように算出されてもよい。本実施形態においては、CPU5は、加速度センサ14および/またはジャイロセンサ15の検出結果を端末装置2から取得し、当該検出結果に基づいて端末装置2の姿勢を算出する。また、端末装置2の姿勢に基づいて決定された表示範囲を表すデータは、表示範囲データ73としてメモリ6に記憶される。
ステップS2において、CPU5は、端末装置2からの操作データを取得し、操作データに基づいて、付加情報(コメント)の入力があるか否かを判定する。すなわち、CPU5は、付加情報(コメント)の入力を受け付ける。付加情報の入力は、例えば、上記“(3−1)付加情報の入力”で述べた方法で行われる。ステップS2の判定結果が肯定である場合、ステップS3の処理が実行される。一方、ステップS2の判定結果が否定である場合、ステップS3の処理がスキップされてステップS4の処理が実行される。
ステップS3において、CPU5は、入力情報データ74をメモリ6に記憶する。入力情報の記憶は、例えば上記“(3−2)付加情報の記憶”で述べた方法によって行われる。具体的な処理としては、CPU5は、入力情報を表すデータを入力情報データ74としてメモリに記憶する。
ステップS4において、CPU5は履歴情報を記憶する。履歴情報の記憶は、例えば上記“(5−1−1)履歴情報の記憶”で述べた方法によって行われる。具体的な処理としては、CPU5は、メモリ6に記憶されている履歴情報データ75を読み出し、履歴情報データ75が表す履歴情報に対して、現在の時間情報と、範囲情報(表示範囲データ)とを追加する。なお、履歴情報データ75が記憶されていない場合には、現在の時間情報と、範囲情報(表示範囲データ)とを表すデータを履歴情報データ75としてメモリに記憶する。また、ステップS1〜S6における処理ループ中における任意のステップS4の時点で、履歴情報にユーザ情報が追加される。
ステップS5において、CPU5はパノラマ画像を表示する。本実施形態においては、端末装置2とモニタ4との両方にパノラマ画像が表示される。具体的には、CPU5は、パノラマ動画データ71および表示範囲データ73をメモリ6から読み出し、現在の再生時点に対応するパノラマ画像のうち、ステップS1で決定された表示範囲のパノラマ画像を生成して端末装置2へ出力する。また、現在の再生時点に対応するパノラマ画像のうち、予め定められる表示範囲のパノラマ画像を生成してモニタ4へ出力する。
ステップS6において、CPU5は、パノラマ動画の再生を終了するか否かを判定する。CPU5は、例えば、パノラマ動画の再生が最後まで終了したか、および/または、再生を停止する指示がユーザによって行われたか否かを判定する。ステップS6の判定結果が否定の場合、ステップS1の処理が再度実行される。以降、ステップS1〜S6の一連の処理は、ステップS6で再生を終了すると判定されるまで繰り返し実行される。一方、ステップS6の判定結果が肯定の場合、ステップS7の処理が実行される。
ステップS7において、CPU5は、履歴情報に基づいて、再生終了後に提示すべきオブジェクトを選出する。このオブジェクトの選出は、例えば上記“(5−3)再生終了後における履歴情報に基づく出力”で述べた方法によって行われる。なお、上述したように、提示すべきオブジェクトを選出する処理は、パノラマ動画の再生中に実行されてもよい。また、他の実施形態においては、オブジェクトの選出処理に代えて(あるいは、オブジェクトの選出処理とともに)、CPU5は、履歴情報に基づいて表示範囲を選出する処理を実行してもよい。
ステップS8において、CPU5は、選択されたオブジェクトを含む表示範囲のパノラマ画像を表示装置に表示させる。ステップS8における表示処理は、例えば上記“(5−3)再生終了後における履歴情報に基づく出力”で述べた方法によって行われる。ステップS7の後、CPU5は、図30に示す動画再生処理を終了する。
なお、他の実施形態においては、第1モードの動画再生処理においては、付加情報の入力を受け付ける処理(ステップS2およびS3)と、履歴情報を記憶する処理(ステップS4)とのいずれか一方のみが実行されてもよい。また、履歴情報に基づく出力を行う処理(ステップS7およびS8)が実行されなくてもよい。
(第2モードの再生動作)
図31は、本実施形態において情報処理装置3のCPU5が実行する第2モードの動画再生処理の流れの一例を示すフローチャートである。第2モードの実行が選択された場合、CPU5は、図31に示す処理を実行する。
まずステップS11において、CPU5は、外部の装置から各種の情報を取得する。各種の情報とは、付加情報を含む入力情報、および/または、履歴情報である。CPU5は、上記“(3−4)他のユーザによる付加情報”および“(5−1−3)履歴情報の取得”で述べた方法で各種の情報を取得し、新たな入力情報データ74または履歴情報データ75としてメモリ6に記憶する。
ステップS12において、CPU5は、目標を設定する。例えば上記“(4−1)目標の設定”で述べたように、再生すべきパノラマ動画に設定されている付加情報に対応する位置が目標に設定されてもよい。また、CPU5は、設定された目標を表す目標情報を記憶する。すなわち、CPU5は、上記“(4−2)目標情報の記憶”で述べた方法で目標情報を表すデータをメモリ6に記憶する。
ステップS13において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS13の処理は、上述のステップS1の処理と同じである。
ステップS14において、CPU5は、出力すべきガイド情報を生成する。すなわち、CPU5は、入力情報データ74と、上記目標情報を表すデータとをメモリ6から読み出し、入力情報および目標情報に基づいて、ガイド情報を出力するか否かを判別する。この判別は、上記“(4−3)ガイド情報の出力判別の方法”で述べた方法で行われる。ガイド情報を出力すると判別された場合、CPU5は、“(4−4)ガイド情報の出力態様”で述べた方法でガイド情報(およびユーザ情報)を表す画像(図17に示すガイド画像41)を生成し、画面上において当該画像を表示する位置を決定する。
ステップS15において、CPU5は、出力すべき付加情報を生成する。すなわち、CPU5は、メモリ6から入力情報データ74を読み出し、入力情報に基づいて、付加情報を出力するか否かを判別する。この判別は、上記“(3−3−1)付加情報の出力判別の方法”で述べた方法で行われる。付加情報を出力すると判別された場合、上記“(3−3−2)付加情報の出力態様”および“(3−3−3)付加情報の出力内容”で述べた方法で付加情報(およびユーザ情報)を表す画像(例えばコメント画像32)を生成し、画面上において当該画像を表示する位置を決定する。
ステップS16において、CPU5は、出力すべき履歴関連情報を生成する。すなわち、CPU5は、メモリ6から履歴情報データ75を読み出し、履歴情報に基づいて、履歴関連情報を表す画像を生成する。この画像の生成は、上記“(5−1−2)履歴情報を用いたパノラマ動画の再生”の“(A)履歴関連情報を出力する方法”で述べた方法で行われる。また、CPU5は、画面上において上記画像を表示する位置を決定する。なお、他の実施形態においては、ステップS16において、上記“(5−1−2)履歴情報を用いたパノラマ動画の再生”の“(C)パノラマ動画とともに他の画像を表示する方法”で述べた補助画像が生成されてもよい。このとき、ステップS17においては、パノラマ画像とともに補助画像が表示される。
ステップS17において、CPU5は、上記ガイド情報、付加情報、および履歴関連情報の画像をパノラマ画像とともに表示する。具体的には、CPU5は、パノラマ動画データ71および表示範囲データ73をメモリ6から読み出し、現在の再生時点に対応するパノラマ画像のうち、ステップS13で決定された表示範囲のパノラマ画像を生成する。そして、生成されたパノラマ画像に対して、ステップS14〜S16で生成された画像を重ねた画像を生成し、端末装置2に出力する。なお、ステップS17においてモニタ4にパノラマ動画を表示させる処理は、上記ステップS5と同じである。
ステップS18において、CPU5は、ステップS6と同様の方法で、パノラマ動画の再生を終了するか否かを判定する。ステップS18の判定結果が否定の場合、ステップS13の処理が再度実行される。一方、ステップS18の判定結果が肯定の場合、CPU5は図31に示す動画再生処理を終了する。以降、ステップS13〜S18の一連の処理は、ステップS18で再生を終了すると判定されるまで繰り返し実行される。
なお、他の実施形態においては、第2モードの動画再生処理において、各種情報(付加情報、ガイド情報、および履歴関連情報)のうち、いくつかの情報のみが出力されてもよい。例えば、第2モードの動画再生処理において、各種情報を出力する処理(ステップS14〜S16)のうち、付加情報を出力する処理(ステップS14)のみが実行されてもよいし、付加情報およびガイド情報を出力する処理(ステップS14およびS15)のみが実行されてもよいし、履歴関連情報を出力する処理(ステップS16)のみが実行されてもよい。
(第3モードの再生動作)
図32は、本実施形態において情報処理装置3のCPU5が実行する第3モードの動画再生処理の流れの一例を示すフローチャートである。第3モードの実行が選択された場合、CPU5は、図32に示す処理を実行する。
まずステップS21において、CPU5は、表示範囲の決定に用いる履歴情報を選択する。この履歴情報はどのような方法で選択されてもよく、例えば、ユーザの指示に従って選択される。
ステップS22において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS22で決定される表示範囲は、端末装置2に表示されるパノラマ動画の表示範囲である。ステップS22の処理は、上述のステップS1の処理と同じである。
ステップS23において、CPU5は、ステップS21で選択された履歴情報に基づいて表示範囲を決定する。ステップS22で決定される表示範囲は、モニタ4に表示されるパノラマ動画の表示範囲である。すなわち、CPU5は、選択された履歴情報を表す履歴情報データ75をメモリ6から読み出し、上記“(5−2−2)履歴情報に基づいて決定される表示範囲を再生する方法”で述べた方法で表示範囲を決定する。また、CPU5は、決定された表示範囲を表すデータを表示範囲データ73としてメモリ6に記憶する。
ステップS24において、CPU5はパノラマ画像を表示する。具体的には、CPU5は、パノラマ動画データ71および表示範囲データ73をメモリ6から読み出し、現在の再生時点に対応するパノラマ画像のうち、ステップS23で決定された表示範囲のパノラマ画像を生成してモニタ4へ出力する。このとき、履歴情報に基づく表示範囲のパノラマ画像は、図24に示したように、モニタ4の画面領域の一部に表示されてもよい。なお、ステップS24において端末装置2にパノラマ動画を表示させる処理は、上記ステップS5と同じである。
なお、他の実施形態においては、第3モードの動画再生処理において、付加情報の入力を受け付ける処理(ステップS2およびS3)と、履歴情報を記憶する処理(ステップS4)とのうちいくつかの処理が実行されてもよい。また、第3モードの動画再生処理において、付加情報等の各種情報を出力する処理(ステップS14〜S16)のうちいくつかの処理が実行されてもよい。
(第4モードの再生動作)
図33は、本実施形態において情報処理装置3のCPU5が実行する第4モードの動画再生処理の流れの一例を示すフローチャートである。第4モードの実行が選択された場合、CPU5は、図33に示す処理を実行する。
まずステップS31において、CPU5は、端末装置2に対する入力に基づいて表示範囲を決定する。ステップS31の処理は、上述のステップS1の処理と同じである。
ステップS32において、CPU5は、範囲情報を取得する。例えば、CPU5は、上記ステップS31で決定された表示範囲を表す範囲情報を取得する。範囲情報は、例えば上記“(5−2−1)範囲情報の取得”で述べた方法で取得されてもよい。取得された範囲情報を表すデータは、範囲情報データ76としてメモリ6に記憶される。
ステップS33において、CPU5は、パノラマ動画とともに出力すべき、範囲情報に基づく画像(端末装置2の再生内容を反映した画像)を生成する。すなわち、CPU5は、範囲情報データ76をメモリ6から読み出し、範囲情報に基づいて上記画像を生成する。例えば、上記“(5−2−2)範囲情報を用いたパノラマ動画の再生”で述べた画像が生成される。
ステップS34において、CPU5は、端末装置2にパノラマ動画を表示させる。端末装置2にパノラマ動画を表示させる処理は、上記ステップS5と同じである。
ステップS35において、CPU5は、範囲情報に応じて出力内容を変化させてパノラマ動画をモニタ4に表示させる。具体的には、CPU5は、ステップS33で生成された画像をパノラマ画像とともにモニタ4に表示させる。これによって、上記“(5−2−1)範囲情報の取得”で述べた、端末装置2の再生内容を反映した画像がモニタ4に表示される。なお、ステップS35においてパノラマ画像を生成して表示する方法は、上記ステップS5と同じである。
ステップS36において、CPU5は、ステップS6と同様の方法で、パノラマ動画の再生を終了するか否かを判定する。ステップS36の判定結果が否定の場合、ステップS31の処理が再度実行される。一方、ステップS36の判定結果が肯定の場合、CPU5は図33に示す動画再生処理を終了する。以降、ステップS31〜S36の一連の処理は、ステップS36で再生を終了すると判定されるまで繰り返し実行される。
なお、他の実施形態においては、上記第1〜第4モードのうち、いくつかのモードにおける処理は同時に(1つのモード中で)実行されてもよい。例えば、第4モードにおいて、第1モードにおける各種情報の入力処理(ステップS2〜S4)が実行されてもよいし、第2モードにおける各種情報の出力処理(ステップS13〜S16)が実行されてもよい。以上で、情報処理装置3において実行される処理の説明を終了する。
以上のように、本実施形態は、パノラマ画像を再生する際により多くの情報をユーザに提示すること等を目的として、情報処理システムや情報処理プログラムとして利用することができる。
1 情報処理システム
2 端末装置
3 情報処理装置
4 モニタ
5 CPU
6 メモリ
21 立体モデル
22 仮想カメラ
32 コメント画像
35 バー
41,45,46,47 ガイド画像
55,56,61,65 パノラマ動画
62 マップ画像
63 視点画像

Claims (25)

  1. パノラマ動画の一部の領域を表示装置に表示する情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得手段と、
    前記取得手段によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画の少なくとも一部を出力する第1出力制御手段として前記コンピュータを機能させ、
    前記取得手段は、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記第1出力制御手段は、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記第1出力制御手段は、前記パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として前記表示装置に表示させる、情報処理プログラム。
  2. 前記取得手段は、前記表示範囲、および/または、当該表示範囲内の位置を表す範囲情報を履歴情報として取得し、
    前記情報処理プログラムは、履歴情報によって特定される表示範囲に、パノラマ動画中に登場するオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出するオブジェクト選出手段として前記コンピュータをさらに機能させ、
    前記第1出力制御手段は、選出されたオブジェクトが含まれるパノラマ画像を静止画または動画として前記表示装置に表示させる、請求項に記載の情報処理プログラム。
  3. 前記情報処理プログラムは、前記パノラマ動画の再生中における表示範囲にオブジェクトが含まれるか否かを判別し、出力すべきオブジェクトを判別結果に応じて選出するオブジェクト選出手段として前記コンピュータをさらに機能させ、
    前記取得手段は、前記選出されたオブジェクトを表す情報を前記範囲情報として取得し、
    前記第1出力制御手段は、前記範囲情報が表すオブジェクトが含まれる表示範囲のパノラマ画像を静止画または動画として前記表示装置に表示させる、請求項に記載の情報処理プログラム。
  4. 前記取得手段は、前記パノラマ動画における再生時点を特定可能な時間情報と、当該再生時点における表示範囲および/または当該表示範囲内の位置を特定可能な範囲情報とを関連づけた履歴情報を前記記憶部に記憶し、
    前記第1出力制御手段は、複数の履歴情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として前記表示装置に表示させる、請求項に記載の情報処理プログラム。
  5. パノラマ動画の一部の領域を表示装置に表示する情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得手段と、
    前記取得手段によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画の少なくとも一部を出力する第1出力制御手段として前記コンピュータを機能させ、
    前記取得手段は、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記第1出力制御手段は、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記取得手段は、前記表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得する、情報処理プログラム。
  6. 前記第1出力制御手段によって前記パノラマ動画が前記表示装置において表示される間、前記所定の入力装置に対する入力に基づいて前記表示範囲を決定する範囲決定手段と、
    前記第1出力制御手段によって前記パノラマ動画が前記表示装置において表示される間、前記範囲決定手段によって決定される表示範囲のパノラマ動画を前記他の表示装置に表示させる第2出力制御手段として前記コンピュータをさらに機能させる、請求項に記載の情報処理プログラム。
  7. パノラマ動画の一部の領域を表示装置に表示する情報処理装置のコンピュータにおいて実行される情報処理プログラムであって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得手段と、
    前記取得手段によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画の少なくとも一部を出力する第1出力制御手段と、
    前記第1出力制御手段によって前記パノラマ動画が前記表示装置において表示される間に、当該表示装置とは別の他の表示装置において当該パノラマ動画を出力させる第2出力制御手段として前記コンピュータをさらに機能させ、
    前記取得手段は、前記他の表示装置において前記パノラマ動画が再生される場合に前記範囲情報を取得し、
    前記第1出力制御手段は、前記他の表示装置において前記パノラマ動画が再生される間に、前記範囲情報に応じて出力内容を変化させて前記表示装置に前記パノラマ動画を表示させる、情報処理プログラム。
  8. 前記第1出力制御手段によって前記パノラマ動画が前記表示装置において表示される間、前記所定の入力装置に対する入力に基づいて前記表示範囲を決定する範囲決定手段として前記コンピュータをさらに機能させ、
    前記第2出力制御手段は、前記範囲決定手段によって決定される表示範囲のパノラマ動画を前記他の表示装置に表示させ、
    前記第1出力制御手段は、所定の範囲のパノラマ動画を前記表示装置に表示させるとともに、前記範囲情報に基づく表示範囲のパノラマ動画を前記表示装置に表示させる、請求項に記載の情報処理プログラム。
  9. 前記第1出力制御手段は、前記範囲情報に基づいて決定される表示範囲のパノラマ動画を前記表示装置に表示させる、請求項5から請求項のいずれか1項に記載の情報処理プログラム。
  10. 前記取得手段は、前記表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得し、
    前記第1出力制御手段は、前記範囲情報に基づいて決定される表示範囲における変化を軽減して前記パノラマ動画を前記表示装置に表示させる、請求項に記載の情報処理プログラム。
  11. 前記取得手段は、前記パノラマ動画の再生中においてユーザによって指定された位置を表す範囲情報をさらに取得し、
    前記第1出力制御手段は、前記範囲情報に基づいて決定されるパノラマ画像上における位置を表す画像を前記パノラマ動画とともに前記表示装置に表示させる、請求項1から請求項10のいずれか1項に記載の情報処理プログラム。
  12. 前記第1出力制御手段は、前記範囲情報に基づく表示範囲または位置に対応する視線方向を表す画像を前記表示装置に表示させる、請求項1から請求項11のいずれか1項に記載の情報処理プログラム。
  13. 前記第1出力制御手段は、前記パノラマ動画が表す空間と、前記範囲情報に基づく前記パノラマ動画上における位置に対応する当該空間内における位置とを表す画像を前記表示装置に表示させる、請求項1から請求項12のいずれか1項に記載の情報処理プログラム。
  14. 前記取得手段は、ネットワークを介して外部の装置から前記範囲情報を取得する、請求項1から請求項13のいずれか1項に記載の情報処理プログラム。
  15. 前記取得手段は、前記範囲情報に関する入力を行ったユーザを表すユーザ情報をさらに取得し、
    前記第1出力制御手段は、前記パノラマ動画を出力する場合に前記ユーザ情報を出力する、請求項1から請求項14のいずれか1項に記載の情報処理プログラム。
  16. 前記第1出力制御手段は、前記パノラマ動画の少なくとも一部とともに、前記範囲情報に基づいて生成される履歴関連情報を出力し、
    前記履歴関連情報は、(1)現在の表示範囲に対する、前記範囲情報によって特定される表示範囲または位置の向き、(2)前記パノラマ動画における所定の範囲についての表示頻度、および、(3)前記パノラマ動画中に登場するオブジェクトの表示頻度、のうち少なくとも1つを表す、請求項から請求項15のいずれか1項に記載の情報処理プログラム。
  17. パノラマ動画の一部の領域を表示装置に表示する情報処理装置であって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得部と、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得部によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する出力制御部とを備え、
    前記取得部は、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記出力制御部は、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記出力制御部は、前記パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として前記表示装置に表示させる、情報処理装置。
  18. パノラマ動画の一部の領域を表示装置に表示する情報処理システムであって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得部と、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得部によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する出力制御部とを備え、
    前記取得部は、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記出力制御部は、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記出力制御部は、前記パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として前記表示装置に表示させる、情報処理システム。
  19. パノラマ動画の一部の領域を表示装置に表示するパノラマ動画表示方法であって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得ステップと、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得ステップにおいて取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する出力制御ステップとを備え、
    前記取得ステップにおいては、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記出力制御ステップにおいては、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記出力制御ステップにおいては、前記パノラマ動画の再生が終了した場合、当該再生において履歴情報として記憶された範囲情報に基づいて決定される表示範囲のパノラマ画像を静止画または動画として前記表示装置に表示させる、パノラマ動画表示方法。
  20. パノラマ動画の一部の領域を表示装置に表示する情報処理装置であって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得部と、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得部によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する出力制御部とを備え、
    前記取得部は、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記出力制御部は、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記取得部は、前記表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得する、情報処理装置。
  21. パノラマ動画の一部の領域を表示装置に表示する情報処理システムであって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得部と、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得部によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する出力制御部とを備え、
    前記取得部は、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記出力制御部は、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記取得部は、前記表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得する、情報処理システム。
  22. パノラマ動画の一部の領域を表示装置に表示するパノラマ動画表示方法であって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得ステップと、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得ステップにおいて取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する出力制御ステップとを備え、
    前記取得ステップにおいては、取得された範囲情報を、記憶部に履歴情報として記憶し、
    前記出力制御ステップにおいては、前記履歴情報が記憶された後で前記履歴情報に基づく情報を出力し、
    前記取得ステップにおいては、前記表示装置とは異なる他の表示装置において再生されるパノラマ動画に関する範囲情報を取得する、パノラマ動画表示方法。
  23. パノラマ動画の一部の領域を表示装置に表示する情報処理装置であって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得部と、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得部によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する第1出力制御部と、
    前記第1出力制御部によって前記パノラマ動画が前記表示装置において表示される間に、当該表示装置とは別の他の表示装置において当該パノラマ動画を出力させる第2出力制御部とを備え、
    前記取得部は、前記他の表示装置において前記パノラマ動画が再生される場合に前記範囲情報を取得し、
    前記第1出力制御部は、前記他の表示装置において前記パノラマ動画が再生される間に、前記範囲情報に応じて出力内容を変化させて前記表示装置に前記パノラマ動画を表示させる、情報処理装置。
  24. パノラマ動画の一部の領域を表示装置に表示する情報処理システムであって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得部と、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得部によって取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する第1出力制御部と、
    前記第1出力制御部によって前記パノラマ動画が前記表示装置において表示される間に、当該表示装置とは別の他の表示装置において当該パノラマ動画を出力させる第2出力制御部とを備え、
    前記取得部は、前記他の表示装置において前記パノラマ動画が再生される場合に前記範囲情報を取得し、
    前記第1出力制御部は、前記他の表示装置において前記パノラマ動画が再生される間に、前記範囲情報に応じて出力内容を変化させて前記表示装置に前記パノラマ動画を表示させる、情報処理システム。
  25. パノラマ動画の一部の領域を表示装置に表示するパノラマ動画表示方法であって、
    前記パノラマ動画の再生中において所定の入力装置に対する入力に基づいて決定される、前記パノラマ動画のうちで表示される表示範囲を特定可能、および/または、当該表示範囲内の位置を特定可能な範囲情報を取得する取得ステップと、
    前記表示装置を用いて前記パノラマ動画を出力する場合、前記取得ステップにおいて取得された範囲情報に応じて出力内容を変化させて前記パノラマ動画を出力する第1出力制御ステップと、
    前記第1出力制御ステップによって前記パノラマ動画が前記表示装置において表示される間に、当該表示装置とは別の他の表示装置において当該パノラマ動画を出力させる第2出力制御ステップとを備え、
    前記取得ステップにおいては、前記他の表示装置において前記パノラマ動画が再生される場合に前記範囲情報を取得し、
    前記第1出力制御ステップにおいては、前記他の表示装置において前記パノラマ動画が再生される間に、前記範囲情報に応じて出力内容を変化させて前記表示装置に前記パノラマ動画を表示させる、パノラマ動画表示方法。
JP2012125644A 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法 Active JP6006536B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012125644A JP6006536B2 (ja) 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
US13/869,401 US9485484B2 (en) 2012-06-01 2013-04-24 Storage medium storing information processing program, information processing device, information processing system, and panoramic video display method
US15/245,451 US9749672B2 (en) 2012-06-01 2016-08-24 Storage medium storing information processing program, information processing device, information processing system, and panoramic video display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125644A JP6006536B2 (ja) 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法

Publications (2)

Publication Number Publication Date
JP2013251787A JP2013251787A (ja) 2013-12-12
JP6006536B2 true JP6006536B2 (ja) 2016-10-12

Family

ID=49670368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125644A Active JP6006536B2 (ja) 2012-06-01 2012-06-01 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法

Country Status (2)

Country Link
US (2) US9485484B2 (ja)
JP (1) JP6006536B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6548203B2 (ja) * 2013-03-18 2019-07-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法
KR102297919B1 (ko) 2013-12-09 2021-09-02 파로님 가부시키가이샤 링크처 지정용 인터페이스 장치, 시청자용 인터페이스 장치, 및 컴퓨터 프로그램
JP5835383B2 (ja) * 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
JP6547240B2 (ja) * 2014-05-21 2019-07-24 セイコーエプソン株式会社 表示システム、端末装置、および、プログラム
CN105306501A (zh) * 2014-06-26 2016-02-03 国际商业机器公司 用于对多媒体数据进行交互式更新的方法和系统
WO2016009865A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置及び方法、表示制御装置及び方法、再生装置及び方法、プログラム、並びに情報処理システム
US20170142486A1 (en) * 2014-07-18 2017-05-18 Sony Corporation Information processing device, display device, information processing method, program, and information processing system
US20160050349A1 (en) * 2014-08-15 2016-02-18 Sony Corporation Panoramic video
JP6518069B2 (ja) * 2015-01-09 2019-05-22 キヤノン株式会社 表示装置、撮像システム、表示装置の制御方法、プログラム、及び記録媒体
JP6503881B2 (ja) * 2015-05-20 2019-04-24 株式会社リコー コンテンツ提供システム、情報処理装置、プログラム、コンテンツ再生方法
JP2017040687A (ja) 2015-08-17 2017-02-23 株式会社リコー 画像表示システム、情報処理装置、画像表示方法及びプログラム
JP2017040686A (ja) * 2015-08-17 2017-02-23 株式会社リコー 画像表示システム、情報処理装置、画像表示方法及びプログラム
CN108780584B (zh) * 2016-03-21 2023-04-21 葫芦有限责任公司 用于流传输和渲染的球形视频的转换和预处理
KR102525575B1 (ko) * 2016-08-12 2023-04-25 삼성전자주식회사 영상 표시 장치 및 그 동작 방법
CN107888987B (zh) * 2016-09-29 2019-12-06 华为技术有限公司 一种全景视频播放方法及装置
JP6853013B2 (ja) * 2016-10-26 2021-03-31 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
JP6844420B2 (ja) * 2017-03-21 2021-03-17 株式会社リコー 閲覧システム、プログラム
CN107659851B (zh) * 2017-03-28 2019-09-17 腾讯科技(北京)有限公司 全景图像的展示控制方法及装置
CN111264063A (zh) * 2017-09-22 2020-06-09 知识产权之桥一号有限责任公司 显示控制设备和计算机程序
CN107728787B (zh) * 2017-10-30 2020-07-07 太平洋未来科技(深圳)有限公司 全景视频中的信息显示方法和装置
CN108211342A (zh) * 2018-01-19 2018-06-29 腾讯科技(深圳)有限公司 视角调整方法和装置、存储介质及电子装置
JP2021096753A (ja) 2019-12-19 2021-06-24 株式会社リコー 情報処理システム、方法、プログラムおよび記録媒体
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3685836B2 (ja) 1995-02-28 2005-08-24 株式会社ナムコ 3次元シューティングゲーム装置
JP2002320215A (ja) 2001-02-16 2002-10-31 Fujitsu Ltd 動画像配信用サーバーコンピュータ、動画像編集方法、動画像受信用クライアントコンピュータ、動画像配信方法、動画像配信用クライアントサーバーシステム、動画像再生処理プログラム及び記録媒体
JP3982295B2 (ja) * 2002-03-20 2007-09-26 日本電信電話株式会社 映像コメント入力・表示方法およびシステムと、クライアント装置と、映像コメント入力・表示プログラム及びその記録媒体
JP2004070609A (ja) * 2002-08-05 2004-03-04 Canon Inc 画像再生装置及び方法
US7308131B2 (en) 2002-12-03 2007-12-11 Ntt Docomo, Inc. Representation and coding of panoramic and omnidirectional images
US7823058B2 (en) * 2002-12-30 2010-10-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive point-of-view authoring of digital video content
JP4297804B2 (ja) * 2004-02-19 2009-07-15 任天堂株式会社 ゲーム装置及びゲームプログラム
JP2005295266A (ja) 2004-03-31 2005-10-20 Victor Co Of Japan Ltd 受信装置
DE112005000929B4 (de) * 2004-04-28 2011-07-21 Chuo Electronics Co. Ltd., Tokyo Automatisches Abbildungsverfahren und Vorrichtung
US20060002590A1 (en) * 2004-06-30 2006-01-05 Borak Jason M Method of collecting information for a geographic database for use with a navigation system
US8103445B2 (en) 2005-04-21 2012-01-24 Microsoft Corporation Dynamic map rendering as a function of a user parameter
US8107769B2 (en) 2006-12-28 2012-01-31 Casio Computer Co., Ltd. Image synthesis device, image synthesis method and memory medium storage image synthesis program
CA2688339C (en) 2007-05-25 2017-04-04 Google Inc. Rendering, viewing and annotating panoramic images, and applications thereof
US8009178B2 (en) 2007-06-29 2011-08-30 Microsoft Corporation Augmenting images for panoramic display
JP4466733B2 (ja) * 2007-12-14 2010-05-26 ソニー株式会社 コンテンツ処理装置および方法、プログラム、並びに記録媒体
US8917286B2 (en) 2008-11-11 2014-12-23 Sony Corporation Image processing device, information processing device, image processing method, and information processing method
JP5449859B2 (ja) * 2009-05-18 2014-03-19 任天堂株式会社 ゲームプログラム,ゲーム装置およびゲームシステム
US9766089B2 (en) 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
KR20150008840A (ko) * 2010-02-24 2015-01-23 아이피플렉 홀딩스 코포레이션 시각 장애인들을 지원하는 증강 현실 파노라마
JP5533048B2 (ja) * 2010-03-08 2014-06-25 ソニー株式会社 撮像制御装置、撮像制御方法
US9122707B2 (en) 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US9167289B2 (en) 2010-09-02 2015-10-20 Verizon Patent And Licensing Inc. Perspective display systems and methods
JP5692904B2 (ja) 2010-11-17 2015-04-01 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および指示位置算出方法
JP5975739B2 (ja) * 2012-06-01 2016-08-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法

Also Published As

Publication number Publication date
JP2013251787A (ja) 2013-12-12
US20130322843A1 (en) 2013-12-05
US20160366460A1 (en) 2016-12-15
US9749672B2 (en) 2017-08-29
US9485484B2 (en) 2016-11-01

Similar Documents

Publication Publication Date Title
JP6124517B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP6006536B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP5975739B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
JP6548203B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、パノラマ動画表示方法
AU2019216671B2 (en) Method and apparatus for playing video content from any location and any time
TWI530157B (zh) 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體
JP5279737B2 (ja) 表示制御装置、視線誘導方法、および、プログラム
JP6450064B2 (ja) 情報処理装置、動画データのデータ構造、情報処理システム、動画再生プログラム、および、動画の再生方法。
EP2441505A2 (en) Using a portable gaming device to record or modify a game or application in real-time running on a home gaming system
JP2019180060A (ja) 電子機器及びその制御方法
JP6457989B2 (ja) ゲームプログラム及びゲーム装置
CN107506026A (zh) 控制应用运行的方法、装置及头戴式显示设备
JP2018061666A (ja) ゲームプログラム及びゲーム装置
JP2012141753A5 (ja)
JP2018192272A (ja) ゲームプログラム及びゲーム装置
WO2023002792A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2024033849A (ja) 情報処理装置および情報処理方法
JP2023016227A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160808

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160909

R150 Certificate of patent or registration of utility model

Ref document number: 6006536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250