JPWO2018159054A1 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JPWO2018159054A1 JPWO2018159054A1 JP2019502467A JP2019502467A JPWO2018159054A1 JP WO2018159054 A1 JPWO2018159054 A1 JP WO2018159054A1 JP 2019502467 A JP2019502467 A JP 2019502467A JP 2019502467 A JP2019502467 A JP 2019502467A JP WO2018159054 A1 JPWO2018159054 A1 JP WO2018159054A1
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- information
- imaging
- point
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 97
- 238000003672 processing method Methods 0.000 title claims description 10
- 238000003384 imaging method Methods 0.000 claims abstract description 291
- 230000005540 biological transmission Effects 0.000 claims abstract description 74
- 238000012545 processing Methods 0.000 claims description 234
- 230000004044 response Effects 0.000 claims description 51
- 238000009826 distribution Methods 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 12
- 239000013585 weight reducing agent Substances 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 abstract description 50
- 238000000034 method Methods 0.000 description 157
- 230000008569 process Effects 0.000 description 128
- 230000006870 function Effects 0.000 description 68
- 238000004891 communication Methods 0.000 description 41
- 238000012937 correction Methods 0.000 description 30
- 238000001514 detection method Methods 0.000 description 26
- 230000003287 optical effect Effects 0.000 description 25
- 238000003860 storage Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 21
- 230000007704 transition Effects 0.000 description 11
- 238000002674 endoscopic surgery Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000012790 confirmation Methods 0.000 description 9
- 238000001356 surgical procedure Methods 0.000 description 9
- 210000001519 tissue Anatomy 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010336 energy treatment Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005284 excitation Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- QCICUPZZLIQAPA-XPWFQUROSA-N P(1),P(3)-bis(5'-adenosyl) triphosphate Chemical compound C1=NC2=C(N)N=CN=C2N1[C@@H]([C@H](O)[C@@H]1O)O[C@@H]1COP(O)(=O)OP(O)(=O)OP(O)(=O)OC[C@H]([C@@H](O)[C@H]1O)O[C@H]1N1C(N=CN=C2N)=C2N=C1 QCICUPZZLIQAPA-XPWFQUROSA-N 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 230000001678 irradiating effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 208000005646 Pneumoperitoneum Diseases 0.000 description 2
- 210000003815 abdominal wall Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 239000003153 chemical reaction reagent Substances 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003292 diminished effect Effects 0.000 description 2
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 description 2
- 229960004657 indocyanine green Drugs 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000007789 sealing Methods 0.000 description 2
- 241000110058 Candidatus Phytoplasma pini Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000004299 exfoliation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002073 fluorescence micrograph Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000004400 mucous membrane Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001954 sterilising effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/266—Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
- H04N21/2668—Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Television Signal Processing For Recording (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
例えば、ライブハウスでの演奏イベントは、所定のタイムスケジュールに従って複数の出演者が順次演奏を行っていく形態が採られる場合が多い。個々の出演者は、自身の演奏動画を所要の動画投稿サイトにアップロードして自身のプロモーション等を行うことが考えられる。そこで、演奏イベント全体を撮像し、撮像動画中から個々の出演者の演奏部分を切り出し、切り出した個々の動画部分を対応する出演者の端末に配信するというサービスを展開することが考えられる。
この場合には、最悪、撮像のやり直しを行うことも考えられ、出演者を始めとした動画撮像関係者に大きな負担を強いることになる。
また、本技術は、第二に、編集動画の見栄えの低下防止を図りながら編集に係るユーザ負担の軽減を図り、編集機能の利用促進を図ることを目的とする。
このような情報処理方法によっても、上記した本技術に係る第一の情報処理装置と同様の作用が得られる。
このプログラムにより上記第一の情報処理装置を実現する。
このような情報処理方法によっても、上記した本技術に係る第二の情報処理装置と同様の作用が得られる。
このプログラムにより上記第二の情報処理装置を実現する。
また、本技術によれば、第二に、編集動画の見栄えの低下防止を図りながら編集に係るユーザ負担の軽減を図り、編集機能の利用促進を図ることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
<1.第一実施形態>
[1-1.動画配信システムの構成概要]
[1-2.動画配信システムの動作概要]
[1-3.コンピュータ装置のハードウェア構成]
[1-4.制御端末の機能]
[1-5.制御端末、撮像管理端末、及びサーバ装置の処理]
[1-6.視点切替動画の生成]
[1-7.ユーザ端末の機能]
[1-8.ユーザ端末の処理]
[1-9.第一実施形態のまとめ]
<2.第二実施形態>
[2-1.ユーザ端末の機能]
[2-2.ユーザ端末の処理]
[2-3.第二実施形態のまとめ]
<3.第三実施形態>
[3-1.ユーザ端末の機能]
[3-2.ユーザ端末の処理]
[3-3.第三実施形態のまとめ]
<4.第四実施形態>
[4-1.ユーザ端末の機能]
[4-2.ユーザ端末の処理]
[4-3.第四実施形態のまとめ]
<5.プログラム>
<6.変形例>
<7.第一応用例>
<8.第二応用例>
<9.本技術>
[1-1.動画配信システムの構成概要]
図1に、本実施形態で前提とする動画配信システムの例を示す。
動画配信システムは、イベント会場Siに設けられた制御端末1を始めとした各装置と、サーバ装置9とユーザ端末10とを少なくとも備えている。サーバ装置9とユーザ端末10は、コンピュータを備えた装置とされ、例えばインターネットとされたネットワーク8を介して互いにデータ通信を行うことが可能とされている。
本例のイベント会場Siでは、撮像装置2は少なくとも三つ設けられ、それぞれがステージ上を撮像可能な位置に設置されている。三つの撮像装置2はそれぞれ撮像視点が異なり、うち一つはステージ正面、他の一つはステージ正面よりも右側、残り一つはステージ正面よりも左側に設置され、ステージ上の出演者をそれぞれ正面アングル、右側アングル、左側アングルにより撮像することが可能とされている。
以下、正面アングルとしての撮像視点により撮像を行う撮像装置2を「第一カメラ」、右側アングルとしての撮像視点により撮像を行う撮像装置2を「第二カメラ」、左側アングルとしての撮像視点により撮像を行う撮像装置2を「第三カメラ」と表記する。
本例では、制御端末1は無線によりルータ装置4と接続されるが、ルータ装置4との接続は有線接続であってもよい。
本例では、ストレージ装置6は主として各撮像装置2による撮像動画を記憶する(つまり撮像動画を録画する)ための装置として用いられる。
撮像管理端末5は、例えばパーソナルコンピュータとして構成され、制御端末1を介した操作入力や自身に接続された例えばマウス等の操作入力デバイスを用いた操作入力に基づいて、撮像装置2による撮像動画を管理するための各種処理を行う。この各種処理には、各撮像装置2が撮像しストレージ装置6に記憶された撮像動画をサーバ装置9に送信(アップロード)するための処理や、撮像動画の購入に係る処理も含まれる。
実施形態の動画配信システムでは、各撮像装置2による撮像動画がサーバ装置9にアップロードされ、サーバ装置9から該アップロードされた撮像動画に基づく動画がユーザ端末10に配信される。具体的に、ユーザ端末10には、各撮像装置2による撮像動画、すなわち異なる撮像視点で撮像された複数の撮像動画に基づいて生成された視点切替動画が配信されるが、これについては後に改めて説明する。
またネットワーク8の全部又は一部を構成する伝送媒体についても多様な例が想定される。例えばIEEE(Institute of Electrical and Electronics Engineers)1394、USB(Universal Serial Bus)、電力線搬送、電話線等の有線でも、IrDA(Infrared Data Association)のような赤外線、ブルートゥース(登録商標)、802.11無線、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
続いて、上記構成による動画配信システムにおける動作の概要を図2乃至図6を参照して説明する。
図2は、撮像装置2による撮像動作の開始指示操作、及び初期チャプタマークの指示入力操作に係る画面遷移の説明図である。
前述のように、ライブハウスにおけるライブイベントは、所定のタイムスケジュールに従って個々の出演者が順次演奏(歌唱を伴う場合もある)を行う形態が採られる。本実施形態では、このように個々の出演者が順次演奏を行った場合において、撮像動画における各出演者の演奏部分をイン点及びアウト点としてのチャプタマークにより区分し、区分された各動画部分を各出演者の購入対象動画部分として管理する。
なお、ここで言う「出演者の演奏部分」は、出演者が出演中である部分と換言できるものであり、例えば1出演につき複数曲を演奏する場合は、該複数曲の演奏開始から演奏終了までの部分を意味するものである。
このとき、素材としての(母体としての)撮像動画については、必要部分の漏れが生じないように、撮像開始タイミング(録画開始タイミング)は1番目の出演者の演奏開始よりも十分に前のタイミングとし、撮像終了タイミング(録画終了タイミング)は最後の出演者の演奏終了よりも十分に後のタイミングとなるようにする。
先ず、本例では、撮像装置2の撮像動作に係る操作(開始や終了の指示)、及び初期チャプタマークの指示入力操作は、イベント会場Siにおけるスタッフが制御端末1に対して行うものとする。すなわち、図2に示す画面遷移は、制御端末1における画面遷移を表している。
本例における制御端末1には、図2に示すような画面表示を行って操作入力を受け付けるためのアプリ(アプリケーションプログラム)がインストールされている。以下、該アプリを「制御操作アプリAp1」と表記する。
また、ステータス画面G12には、ステータスの確認が完了した旨を指示入力するための「OK」ボタンも表示されている。
「イン点設定」ボタンB2、「アウト点設定」ボタンB3は、撮像動画について、上述した初期チャプタマークとしてのチャプタマークを付与するためのボタンとされる。イベント会場Siのスタッフは、出演者の演奏部分が開始、終了するごとに、「イン点設定」ボタンB2、「アウト点設定」ボタンB3をそれぞれ操作して、初期チャプタマークとしてのイン点、アウト点のタイミングを制御端末1に指示入力することができる。
図3Aは、チャプタマークの修正操作画面G15の例を示している。
本例では、チャプタマークの修正操作、及び録画された撮像動画をサーバ装置9にアップロードするための操作としても、制御端末1が受け付けるものとする。具体的に、本例では、上述した制御操作アプリAp1にこれらの操作受付機能が実装されている。
また、修正操作画面G15には、イン点、アウト点の位置を指示するためのスライダSLと、チャプタマークを修正する対象としての動画部分を選択するための対象選択ボタンB5と、スライダSLにより示される位置をイン点として設定する指示を行うための「イン点設定」ボタンB6と、スライダSLにより示される位置をアウト点として設定する指示を行うための「アウト点設定」ボタンB7と、イン点及びアウト点を確定するための「確定」ボタンB8とが表示される。
なお、本例では、プレビュー画像ipとしては、各撮像装置2のうち所定の撮像装置2(例えば正面アングルの撮像を行う第一カメラとしての撮像装置2)による撮像動画からの抽出画像を用いる。
そして、本例では、動画部分表示バーbpにおけるイン点に近い領域の表示態様と「イン点設定」ボタンB6の表示態様とを一致させており(表示色を例えば赤色で一致させており)、また、動画部分表示バーbpにおけるアウト点に近い領域の表示態様と「アウト点設定」ボタンB7の表示態様とを一致させている(表示色を例えば青色で一致させている)。
これにより、上記のようにスライダSLで時間軸上の位置を指示して「イン点設定」ボタンB6、「アウト点設定」ボタンB7によって該指示した位置へのイン点、アウト点の設定指示を行うことが前提とされる場合において、例えばイン点を設定すべきところ誤って「アウト点設定」ボタンB7を操作してしまう等、チャプタマーク設定についての誤操作防止が図られる。
本実施形態の動画配信システムでは、購入手続きを行った出演者を対象として、対応する撮像動画を該出演者に配信する。撮像動画の購入手続きは、本例では撮像管理端末5を用いて行われる。
本例の撮像管理端末5には、図4に示すような画面表示を行って購入に係る操作入力を受け付けるためのアプリがインストールされている。以下、該アプリを「購入操作アプリAp2」と表記する。イベント会場Siのスタッフは、出演者に購入手続きを行わせるにあたり、撮像管理端末5において購入操作アプリAp2を起動させておく。
本例の購入情報入力画面G18は、撮像動画に含まれる動画部分ごとに購入情報の入力を受け付けることが可能に構成されている。具体的に、この場合の購入情報入力画面G18には、各動画部分を選択するためのタブTが表示される。図中では、ライブリスト画面G17で選択された撮像動画に三つの動画部分が含まれ、それら動画部分の個々を選択するためのタブT1〜T3が表示された例を示している。購入情報入力画面G18に遷移した初期状態では、図4Bに示すようにタブT1が選択状態とされ、1番目の動画部分についての購入情報の入力が可能とされる。
ダイジェストは、前述した視点切替動画の販売を意味するものである。
「次へ」ボタンB9の操作に応じては、図4Cに示すような「OK」ボタンB10を有する購入確定画面G19が表示され、使用者は「OK」ボタンB10を操作することで購入情報入力画面G18で選択した購入対象についての購入確定を撮像管理端末5に指示することができる。
確認画面G20は、購入者(出演者)としてのユーザにアカウント情報の入力、又はアカウント情報の新規登録を促す画面とされる。
本例の動画配信システムでは、サーバ装置9が購入者としてのユーザを識別可能とするべく、購入者にアカウント情報の入力、或いはアカウント情報を未登録の購入者には新規登録を行わせる。アカウント情報は、例えばユーザIDとパスワードの組み合わせ情報とされる。
確認画面G20には「OK」ボタンB11が設けられ、ユーザはアカウント情報の入力又は新規登録を行う場合には「OK」ボタンB11を操作する。
購入情報入力フォームは、図4Bに示した購入情報入力画面G18の表示にあたって用いられるフォーム情報であり、撮像動画に複数の動画部分が存在する場合には動画部分ごとに生成される。
図5では、撮像動画の録画例と購入情報入力フォームの生成例とを対比して示し、両者の関係を表している。
具体的に、図中の出演者Aについて見れば、出演者Aの出演部分についての初期アウト点の指示に応じ、該初期アウト点により区分される出演者Aの動画部分について購入情報入力フォームが生成されている。他の出演者B、Cについても、同様に初期アウト点の指示に応じて対応する動画部分について購入情報入力フォームが生成される。
従って、自身の出番が終了した後に撮像動画の録画終了まで待つことなく動画部分の購入手続を行うことができ、ユーザの利便性向上を図ることができる。
サーバ装置9では、受信したイン点及びアウト点の情報に従って、図6Bに示すように各撮像動画における各動画部分の切り出しを行う。なお、図6Bでは出演者A〜Cの全てについて動画部分の切り出しが行われた例を示しているが、購入手続が行われなかった出演者については動画部分の切り出しは不要である。
ここで、動画部分の切り出しとは、動画部分を独立した動画ファイルとして生成することと換言することができる。
図6Cに示すように、視点切替動画は、各撮像装置2により撮像された出演者Aの動画部分について、それぞれの一部が組み合わされて生成される。これにより、経時的に撮像視点が切り替えられる動画が実現される。
図7に、図1で示した制御端末1、撮像管理端末5、サーバ装置9、ユーザ端末10の各々を構成するコンピュータ装置のハードウェア構成を示す。
図7において、コンピュータ装置のCPU(Central Processing Unit)101は、ROM(Read Only Memory)102に記憶されているプログラム、または記憶部108からRAM(Random Access Memory)103にロードされたプログラムに従って各種の処理を実行する。RAM103にはまた、CPU101が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU101、ROM102、及びRAM103は、バス104を介して相互に接続されている。このバス104には、入出力インタフェース105も接続されている。
入出力インタフェース105には、キーボード、マウス、タッチパネルなどよりなる入力部106、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)、有機EL(Electroluminescence)パネルなどよりなるディスプレイ(表示装置)、並びにスピーカなどよりなる出力部107、HDD(Hard Disk Drive)やフラッシュメモリ装置などより構成される記憶部108、外部装置との間で相互通信を行うための通信部109が接続されている。
ここで、特にユーザ端末10としてのコンピュータ装置においては、入力部106として上述した撮像部10aが含まれる。
入出力インタフェース105にはまた、必要に応じてメディアドライブ110が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111が適宜装着され、リムーバブルメディア111に対する情報の書込や読出が行われる。
CPU101が各種のプログラムに基づいて処理動作を行うことで、特に制御端末1、撮像管理端末5、サーバ装置9、ユーザ端末10としてのコンピュータ装置においてはそれぞれ以降で説明する情報処理や通信が実行される。
図8の機能ブロック図を参照して、制御端末1が実現する第一実施形態としての各種機能について説明する。
図8において、制御端末1は、機能ごとに分けて情報取得処理部F1、送信制御処理部F2、情報表示制御処理部F3、及び入力フォーム生成指示処理部F4を有するものとして表すことができる。本例では、これら各機能は前述した制御操作アプリAp1により実現されるものである。
本例では、該送信制御は、制御端末1が撮像管理端末5に対し確定されたイン点及びアウト点の情報を送信して、ストレージ装置6に録画された撮像動画と該確定されたイン点及びアウト点の情報とを撮像管理端末5によりサーバ装置9に対して送信させる制御が該当する。
従って、一連の撮像動画における一部の動画部分をユーザに配信するシステムにおいて、動画部分の範囲修正を容易化して動画撮像関係者の負担軽減を図ることができる。
これにより、視点切替動画を配信するシステムを実現可能とされる。
本例では、上記視覚情報は、図3Aに示した全長バーba及び動画部分表示バーbpが該当し、上記のポインタ、イン点指示操作子、アウト点指示操作子は、それぞれスライダSL、「イン点設定」ボタンB6、「アウト点設定」ボタンB7が該当する。
つまり本例では、図3Aで説明したように動画部分表示バーbpにおけるイン点に近い領域とアウト点に近い領域とで表示色を異ならせる(例えば赤と青)一方で、上記イン点に近い領域と「イン点設定」ボタンB6を同一の表示色(例えば赤)とし、上記アウト点に近い領域と「アウト点設定」ボタンB7を同一の表示色(例えば青)としている。
これにより、イン点、アウト点の修正に係る誤操作防止が図られる。
図9乃至図13のフローチャートを参照して、第一実施形態における制御端末1、撮像管理端末5、及びサーバ装置9が行うべき処理を説明する。
図9及び図10に示す処理は、それぞれ制御端末1のCPU101が前述した制御操作アプリAp1としてのプログラムに従って実行するものである。図9及び図10において、制御端末1と言ったときは、特に断りのない限り制御端末1のCPU101を指すものとする。
なお、図9に示す処理が開始されるにあたっては、既に開始操作画面G13(図2C)が表示された状態にあるとする。
イン点指示が行われた場合、制御端末1はステップS104に進みイン点の保持処理を行う。すなわち、指示されたイン点の情報(例えば、録画開始からの時間情報)を所定の記憶装置に記憶させる処理を行う。
さらに、続くステップS107で制御端末1は、アウト点通知処理として、アウト点の指示があった旨を撮像管理端末5に通知する。
録画終了操作が行われていなければ、制御端末1はステップS103に戻る。これにより、複数の出演者が順時演奏を行う場合に対応して、演奏部分ごとのイン点、アウト点の指示を受け付けることができる。
制御端末1はステップS110で、修正操作画面G15の表示指示を待機する。すなわち、本例では図2に示したトップ画面G11からライブ一覧が表示された状態で、該一覧から一つのライブを選択する操作が行われるまで待機する。
そして、続くステップS113及びS114の処理により、制御端末1は、イン・アウト点修正受付処理を確定操作が行われるまで実行する。ステップS113のイン・アウト点修正受付処理は、図3Aで説明したスライダSLや対象選択ボタンB5、「イン点設定」ボタンB6、「アウト点設定」ボタンB7を用いたイン点、アウト点の修正操作を受け付ける処理である。「イン点設定」ボタンB6、「アウト点設定」ボタンB7により新たにイン点、アウト点が指示された場合は、該当するイン点、アウト点の情報を更新する。
ステップS114の確定操作待機処理は、図3Aに示した「確定」ボタンB8の操作を待機する処理である。
すなわち、確定されたイン点及びアウト点の情報を撮像管理端末5に送信して、ストレージ装置6に録画された該当する撮像動画全体、及び送信したイン点、アウト点の情報、及び後述するライブID、動画部分IDをサーバ装置9に送信させる。
ステップS115の送信制御を行ったことに応じ、制御端末1は図10に示す処理を終える。
図11において、撮像管理端末5はステップS201で、録画開始通知(S102)を待機し、録画開始通知があったことに応じてステップS202で対応するライブIDを生成する。
ライブIDは、イベント会場Siでのライブイベントを一意に識別するための識別情報であり、ステップS202の処理では、ステップS201で録画開始が通知された撮像動画を一意に識別可能なライブIDを生成する。
動画部分IDは、撮像動画中における動画部分を一意に識別するための識別情報であり、ステップS204の処理では、ステップS203でアウト点が通知された動画部分を一意に識別可能な動画部分IDを生成する。
ステップS205の処理により、初期アウト点の指定に応じて新たな動画部分についての購入情報入力フォームが生成される。生成された購入情報入力フォームは、該当する撮像動画について表示された購入情報入力画面G18(図4B)において反映される。具体的には、ステップS205で購入情報入力フォームが生成されるごとに、該当する撮像動画についての購入情報入力画面G18に表示されるタブTの数が増加していき、新たな動画部分についての購入情報の入力が可能となる。
なお、図12に示す処理が開始されるにあたっては、既に購入情報入力画面G18(図4B参照)が表示された状態にあるとする。
ステップS301の取得処理は、購入情報入力画面G18、購入確定画面G19(図4C)、及び確認画面G20(図4D)における入力情報と、アカウント情報とを取得する処理とされる。特に、ステップS301の取得処理では、購入情報入力画面G18におけるタブTの選択入力情報、演奏時間区分やカメラ台数、購入対象としての各項目の入力情報が取得される。
購入対象動画特定情報I1は、購入手続が行われた動画部分の識別情報(ライブID及び動画部分ID)と、購入対象の識別情報(本例では素材セット、ダイジェストの別)を含む情報である。
(1)撮像動画の録画開始や終了の指示受付
(2)初期チャプタマークの指示の受付
(3)初期チャプタマークの修正受付
(4)撮像動画とイン点及びアウト点の情報のアップロード指示受付(本例では「確定」ボタンB8の操作受付)
(5)購入情報入力受付
これらの処理を制御端末1や撮像管理端末5を始めとした何れの装置に実行させるかは任意である。例えば、制御端末1又は撮像管理端末5の何れかが上記の全ての処理を行ってもよい。或いは、制御端末1が上記(1)(2)の処理、撮像管理端末5が残りの(3)〜(5)の処理を行うようにすることもできる。
上記「対象者識別情報」は、先の図4Dで説明したアカウント情報が該当する。また、上記「動画部分識別情報」は、初期アウト点の指示に応じ撮像管理端末5が生成していた「動画部分ID」が該当する。
上記のように動画部分識別情報と対象者識別情報とが対応付けられてサーバ装置9に対して送信されるようにすることで、サーバ装置9において動画部分と配信対象者との対応関係を管理することが可能とされる。
これにより、各動画部分は、それぞれ異なる対象者識別情報(ユーザ識別情報)が対応付けられてサーバ装置9に送信される。
従って、複数の動画部分ごとに異なる配信対象者が設定された場合において、各動画部分が配信対象者以外の者からの要求に応じて配信されないようにすることができる。
これにより、イン点又はアウト点の設定を誤った場合における修正を可能としつつ、サーバ装置9に配信不要とされた動画部分を特定させることが可能とされる。
従って、サーバ装置9において配信不要部分の削除が可能となり、サーバ装置9における記憶容量の圧迫防止を図ることができる。
本例の場合、ステップS401の同期処理は、同一のライブIDで管理される撮像動画の組のうち、同期処理が未実行の撮像動画の組を対象として、各撮像動画に付帯される音情報に基づいて行う。具体的には、各音情報の音波形を解析し、音波形が一致するように各撮像動画を同期させる。本例では、各撮像動画にタイムコードを付すことで同期を実現する。
本例では、軽量化処理として、対象とする動画部分の解像度を下げる処理を行う。
なお、軽量化処理としては解像度の低下処理に限定されず、例えば対象とする動画部分がカラー動画像であればモノクロ化する処理、動画部分の一部を間引く処理、動画データを圧縮する処理、或いは、対象とする動画部分がプログレッシブ方式による動画像であればインターレス方式に変換する処理とする等、データ容量を低下させる処理であれば特に限定はされない。
ここで、ステップS402の処理は、軽量化前の元データを削除するものではない。すなわち、ステップS402の処理が行われることで、ダイジェスト購入動画としての各動画部分については、非軽量化動画と軽量化動画とが併存するものとなる。
なお、ダイジェスト購入動画について軽量化動画を生成しておく意義については後述する。
ステップS405の視点切替動画の生成処理は、対象とするダイジェスト購入動画についてステップS401、S402、及びS403の処理が全て完了したことに応じて実行すべきである。ステップS404の削除処理は、ステップS405の生成処理の後に実行されてもよい。
本実施形態の動画配信システムでは、出演者としてのユーザがユーザ端末10を用いて、購入した動画をサーバ装置9からダウンロードすることを想定している。ユーザは、ダウンロードした動画を所要の動画投稿サイト等にアップロードして、自身のプロモーション等を行うことができる。
以下では特に、前述した「ダイジェスト」としての視点切替動画の購入を行った際の購入動画のダウンロードまでの流れを説明する。
先ず、前述したアカウント情報のIDとして、ユーザの電子メールアドレスの入力を求めるようにしておく。そして、アカウント情報を新規登録したことに応じて、上記IDとして登録されたメールアドレス宛に動画取得支援アプリAp3のダウンロードページへのリンク情報を含む電子メールを送付するようにしておき、ユーザは該ダウンロードページにて動画取得支援アプリAp3をユーザ端末10にダウンロードし、インストールを行う。
図14Aは、視点切替動画生成時の動画編集に係る操作入力を受け付けるための編集画面G21の例を示している。
先ず、この編集画面G21を始めとして、動画取得支援アプリAp3により提供される画面には、一覧画面ボタンB20、編集画面ボタンB21、及びプレビュー画面ボタンB22が表示される。一覧画面ボタンB20は、ユーザが購入した動画の一覧情報が表示される不図示の一覧画面の表示を指示するためのボタンである。本例では、動画取得支援アプリAp3は、少なくとも初回起動時にユーザに対してアカウント情報の入力を受け付ける。アカウント情報が入力されることで、動画取得支援アプリAp3はサーバ装置9から該アカウント情報に対応付けられた購入済み動画の情報を取得することができる。一覧画面では、購入済み動画の一覧情報が表示され、ユーザは該一覧から視点切替動画の生成対象とすべきダイジェスト購入動画を選択することができる。
編集画面G21には、上記の一覧から選択された購入済み動画(動画部分)の画像を表示するための画像表示領域Aiと、開始時間の指示操作を行うための開始時間操作部TSと、視点切替動画の全長の指示操作を行うための時間長操作部TLと、終了時間の指示操作を行うための終了時間操作部TEと、視点切替周期の指示操作を行うための切替周期操作部Fsと、「編集実行」ボタンB23とが設けられている。
また、本例の時間長操作部TL、切替周期操作部Fsでは、それぞれ秒単位で時間長、視点切替周期の指示を行うことが可能とされている。
なお、視点切替については、一定の周期による切り替えを行うことに限らず、一部で切り替えの間隔が異なってもよい。この意味で、切替周期は「切替間隔」と換言することができる。
本例において、画像表示領域Aiにデフォルトで表示されるフレーム画像は、購入された各視点の動画部分のうち所定の撮像装置2(例えば、正面視点による第一カメラとしての撮像装置2)が撮像した動画部分に含まれるフレーム画像とされる。なお、編集画面G21において視点切替を指示する操作を可能として、画像表示領域Aiに表示されるフレーム画像を指示された視点の動画部分における該当フレーム画像に切り替えるようにすることもできる。
なお、後述もするが、「編集実行」ボタンB23の操作に応じた視点切替動画の生成は、前述した軽量化処理の施された動画部分に基づきユーザ端末10が行うものである。
ユーザは、再生ボタンB24を操作することで、生成された視点切替動画のプレビュー動画mpをプレビュー画面G22内に表示させることができる。
また、ユーザは「やり直し」ボタンB25を操作することで、再編集指示をユーザ端末10に行うことができる。該再編集指示に応じては、ユーザ端末10において編集画面G21への表示遷移が行われ、ユーザは開始時間や視点切替周期等の各情報の指示を行って異なる指示情報に基づく視点切替動画の生成を行わせることができる。
本例では、サーバ装置9からダウンロードされる視点切替動画は、軽量化処理の施されていない動画部分に基づき生成されたものとなる。
図15の機能ブロック図を参照して、ユーザ端末10が実現する第一実施形態としての各種機能について説明する。
図8において、ユーザ端末10は、機能ごとに分けて指示受付処理部F11、ランダム選択処理部F12、撮像動画取得処理部F13、及び動画表示制御処理部F14を有するものとして表すことができる。本例では、これら各機能は前述した動画取得支援アプリAp3により実現されるものである。
具体的に、指示受付処理部F11は、編集画面G21における開始時間操作部TSと終了時間操作部TEとを用いて指示された視点切替動画の時間長、又は時間長操作部TLを用いて指示された時間長に基づいた切替周期を計算する。この場合の計算は、指示された時間長が長いほどより長い切替周期が算出されるように行う。
本例の指示受付処理部F11は、時間長の指示操作に応じて指示時間長が変化するごとに切替周期を計算し、計算した切替周期の情報を切替周期操作部Fsに表示する。具体的にこの場合は、計算した切替周期の情報を表示すると共に、切替周期操作部Fsにおいて計算した切替周期が選択された状態となるようにする。これにより、視点切替動画の時間長に応じた適切とされる視点切替周期をユーザに提示することができる。
例えば、短時間の視点切替動画において視点切替周期が長くされた場合には、閲覧者に視点切替の頻度が少なく感じられ易く、視点切替による動画の見栄えの向上効果が薄れてしまう。逆に、長時間の視点切替動画において視点切替周期が短くされた場合には、視点切替頻度が過剰に高まって閲覧者に忙しない印象を与えてしまい、返って動画の見栄えの低下を招く虞がある。このため、上記のような切替周期の計算及び提示を行うことは、動画の見栄え向上を図る上で効果的である。
各動画区間に用いるべき動画のランダムな選択が実行し直されることで、ユーザの意図に沿った視点切替動画に生成し直すことが可能とされる。
従って、ユーザにとっての有益性を高めることができる。
動画表示制御処理部F14は、データ軽量化処理の施された複数の撮像動画に基づき、ランダム選択処理部F12による選択結果に従った視点切替動画の表示制御を行う。これは、本例では前述したプレビュー画面G22において視点切替動画のプレビュー動画mpが表示されるように制御することに相当する。
上記の撮像動画取得処理部F13及び動画表示制御処理部F14により、ユーザ端末10における視点切替動画の表示に係る処理負担の軽減が図られる。特に本例では、視点切替動画のプレビュー動画mpの生成に係る処理負担の軽減が図られる。
図17乃至図20のフローチャートを参照し、第一実施形態におけるユーザ端末4が行うべき処理を説明する。
これら図17乃至図20に示す処理は、ユーザ端末10のCPU101が動画取得支援作アプリAp3としてのプログラムに従って実行するものである。図17乃至図20において、ユーザ端末10と言ったときは、特に断りのない限りユーザ端末10のCPU101を指すものとする。
ステップS504の入力操作に応じた処理は、編集画面G21に設けられた開始時間操作部TS、終了時間操作部TE、時間長操作部TL、切替周期操作部Fs、ラジオボタンrb1、rb2等の各操作部に対する操作に応じた処理を実行するものである。
ユーザ端末10はステップS601で、動画時間長指示操作が行われたか否かを判定する。つまり本例の場合は、開始時間操作部TSの操作、或いは、終了時間操作部TE又は時間長操作部TLのうち対応するラジオボタンrbの操作により有効化されている方の操作部に対する操作が行われたか否かを判定する。
なお本例において、開始時間操作部TSにおける時間情報の初期値は、ステップS501で選択された動画の始点の時間を表す値とされている。また、終了時間操作部TEにおける時間情報の初期値は、ステップS501で選択された動画の終点の時間を表す値とされている。
例えば、動画時間長が1分までは視点切替周期を2秒とし、1分を超える場合は視点切替周期を4秒とする等が考えられる。
ステップS505で「編集実行」ボタンB23が操作されたと判定した場合、ユーザ端末10はステップS506に進み、入力情報に応じた視点切替動画の生成処理を行う。
先ず、ユーザ端末10はステップS701で、指示された切替周期に応じた動画区間分割処理を行う。すなわち、「編集実行」ボタンB23の操作時において指示されていた開始時間から終了時間までの区間を、同指示されていた視点切替周期により分割し、各動画区間とする。
また、n番目の区間情報とは、n番目の動画区間の始点及び終点の時間を表す情報である。
ステップS705の処理では、これら使用動画識別情報と区間情報とを例えばユーザ端末10におけるRAM103等の所定の記憶装置に保持(記憶)させる。
これにより、ステップS701の分割処理で得られた各動画区間について、ステップS704のランダム選択処理、及びステップS705の保持処理が実行されて、各動画区間で使用すべき動画部分の識別情報及び各動画区間の始点及び終点の時間情報が保持される。
具体的には、ステップS502で取得した軽量化動画としての各動画部分について、例えば1番目の動画区間から順に、使用動画識別情報が表す動画部分の選択、及び選択した動画部分からの区間情報で特定される区間の動画の抽出を行い、抽出した各動画を時間順に連結して一つの動画ファイルを生成する。
軽量化動画を用いていることで、ユーザ端末10におけるプレビュー動画mpの生成処理負担の軽減が図られる。
ユーザ端末10は、ステップS506の生成処理を実行したことに応じ、ステップS507でプレビュー画面G22の表示処理を実行し、ステップS508に処理を進める。
ユーザ端末10は、ステップS508、S509、及びS510の処理により、再生ボタンB24の操作、「やり直し」ボタンB25の操作、「確定」ボタンB26の操作の何れかを待機する。すなわち、ユーザ端末10は、ステップS508で再生ボタンB24の操作有無を判定し、否定結果が得られた場合はステップS509で「やり直し」ボタンB25の操作有無を判定し、ステップS509で否定結果が得られた場合はステップS510で「確定」ボタンB26の操作有無を判定し、ステップS510で否定結果が得られた場合はステップS508に戻る。
サーバ装置9は、視点切替動画の生成完了に応じて、ユーザ端末10に生成完了通知を行う。
上記のように第一実施形態の情報処理装置(例えば制御端末1)は、撮像装置による撮像動画における一部の範囲を、ユーザへの配信対象となる動画部分として指定するイン点及びアウト点の情報を取得する情報取得部(情報取得処理部F1)と、情報取得部が取得したイン点及びアウト点の情報と撮像動画とを外部装置に対して送信させる送信制御部(送信制御処理部F2)と、を備えている。
従って、一連の撮像動画における一部の動画部分をユーザに配信するシステムにおいて、動画部分の範囲修正を容易化して動画撮像関係者の負担軽減を図ることができる。
従って、配信対象動画の見栄えの向上を図ることができ、動画配信を受けるユーザにとっての有益性向上を図ることができる。
従って、動画部分が配信対象者以外の者からの要求に応じて配信されないようにすることができる。
従って、複数の動画部分ごとに異なる配信対象者が設定された場合において、各動画部分が配信対象者以外の者からの要求に応じて配信されないようにすることができる。
従って、外部装置において配信不要部分の削除が可能となり、外部装置における記憶容量の圧迫防止を図ることができる。
従って、例えばポインタにより指示した位置をイン点として指示すべきことろアウト点指示操作子を操作してしまう等、イン点、アウト点の修正に係る誤操作防止を図ることができる。
従って、ユーザは自身の出番が終了した後に撮像動画の録画終了まで待つことなく動画部分の購入手続を行うことができ、ユーザの利便性向上を図ることができる。
従って、ユーザに大きな操作負担を強いることなく、或る程度見栄えのする動画を生成することができる。すなわち、編集動画の見栄えの低下防止を図りながら編集に係るユーザ負担の軽減を図り、編集機能の利用促進を図ることができる。
これにより、視点切替動画の時間長に応じた適切とされる視点切替間隔をユーザに提示することができる。
従って、ユーザにとっての有益性を高めることができる。
[2-1.ユーザ端末の機能]
続いて、第二実施形態について説明する。
第二実施形態は、ユーザに提示する視点切替周期の計算手法が第一実施形態とは異なるものである。
なお、以下の説明において、既にこれまでに説明済みとなった部分と同様となる部分については、特に断りがない限り同一の符号やステップ番号を付して説明を省略する。以下の説明において、動画配信システムの構成や制御端末1、撮像管理端末5、サーバ装置9、及びユーザ端末10のハードウェア構成については第一実施形態と同様となることから図示による説明は省略する。
動画取得支援アプリAp3Aにより実現される機能としては、先の図15で説明した指示受付処理部F11、ランダム選択処理部F12、撮像動画取得処理部F13、及び動画表示制御処理部F14としての機能があるが、この場合、指示受付処理部F11による視点切替周期の計算機能が第一実施形態の場合とは異なる。
このため本例では、テンポが遅いほどより長い視点切替周期が算出されるように視点切替周期の計算を行う。
図21のフローチャートを参照し、第二実施形態としてのユーザ端末10が行うべき処理について説明する。
なお、図21に示す処理はユーザ端末10が動画取得支援アプリAp3Aとしてのプログラムに従って実行する。この場合におけるユーザ端末10が実行すべき処理は先の図17や図18に示したステップS504の処理以外は第一実施形態の場合と同様である。このため、以下では第二実施形態の場合に実行されるべきステップS504の処理について説明する。
例えば、第一実施形態の場合と同様に視点切替動画の全体時間長に応じて計算した視点切替周期をテンポの速さに応じた係数により調整する等の手法が考えられる。
上記のように第二実施形態の情報処理装置(ユーザ端末10)においては、撮像動画には音情報が付帯され、指示受付部(指示受付処理部F11)は、音情報の音特性に基づいて計算した切替間隔の情報をユーザに提示している。
[3-1.ユーザ端末の機能]
第三実施形態は、拡大動画の併用により切替可能な視点数の増加を図るものである。
第三実施形態では、ユーザ端末10において動画取得支援アプリAp3に代えて動画取得支援アプリAp3Bがインストールされている。
動画取得支援アプリAp3Bにより実現される機能としては、先の図15で説明した指示受付処理部F11、ランダム選択処理部F12、撮像動画取得処理部F13、及び動画表示制御処理部F14としての機能があるが、この場合、ランダム選択処理部F12による機能が第一実施形態の場合とは異なる。
例えば図22の例の場合、元となる撮像動画に対して図中太枠で囲った部分を拡大した動画が、拡大動画に該当する。ここで、撮像動画の「一部の画素領域」とは、撮像動画に含まれる各画素のうち一部の画素で構成される領域を意味する。すなわち、図22の例においては、太枠内の動画が元となる撮像動画に対する「一部の画素領域」に相当する。
ここで、拡大動画の画サイズは、元となる動画部分の画サイズと同一サイズとする。これは、視点切替動画に組み込まれた際に非拡大画像との画サイズの差が生じないようにするためである。
図23のフローチャートを参照し、第三実施形態としてのユーザ端末10が行うべき処理について説明する。
なお、図23に示す処理はユーザ端末10が動画取得支援アプリAp3Bとしてのプログラムに従って実行する。この場合におけるユーザ端末10が実行すべき処理は先の図17や図19に示したステップS506の処理以外は第一実施形態の場合と同様であるため、以下では第三実施形態の場合に実行されるべきステップS506の処理について説明する。
この場合のユーザ端末10(ユーザ端末10のCPU101:以下、図23において同様)は、ステップS704で各視点の動画部分のうち一つをランダム選択したことに応じ、ステップS901で拡大有無をランダム選択する。
ステップS903でユーザ端末10は、軽量化動画と保持情報とに基づき、視点切替動画のプレビュー動画mpを生成する。ステップS903の生成処理は、ステップS708の生成処理と比較して、動画区間ごとに、使用動画識別情報が表す動画部分を選択し且つ選択した動画部分から区間情報で特定される区間の動画を抽出する点は先のステップS708の生成処理と同様となる。但し、ステップS903の処理では、上記のように区間情報で特定される区間の動画を抽出した際に、拡大有無情報を参照し、拡大有無情報が拡大有りを示す場合は該抽出した動画の拡大動画を生成して視点切替動画に用い、拡大無しを示す場合は該抽出した動画を視点切替動画に用いる。
この場合のサーバ装置9における視点切替動画の生成処理は、用いる動画部分が軽量化動画でなくその生成の元となった動画部分とされる以外は、上記したステップS903の生成処理と同様となる。
また、該切り出し位置は、元となる撮像動画の視点ごとに、動画内容に応じて可変とすることもできる。例えば、画像解析を行って人物が写しだされている範囲を特定し、該範囲が含まれるように切り出し位置を設定する等が考えられる。この場合、元となる撮像動画のプレビュー画像(動画又は静止画の何れでもよい)上に切り出し位置を表す枠表示を行う等して、ユーザに切り出し位置の設定状態を把握させることもできる。
上記のように第三実施形態の情報処理装置(ユーザ端末10)においては、ランダム選択部(ランダム選択処理部F12)は、視点切替動画の各動画区間に用いるべき動画の少なくとも一つとして撮像動画の一部の画素領域を拡大した拡大動画を選択している。
従って、視点切替動画の見栄えの向上を図るにあたり、撮像環境に用意すべき撮像装置の台数削減を図ることができる。
従って、視点切替動画のさらなる見栄えの向上を図ることができる。
[4-1.ユーザ端末の機能]
第四実施形態は、視点切替動画に対して任意動画を連結可能とするものである。
第四実施形態では、ユーザ端末10において動画取得支援アプリAp3に代えて動画取得支援アプリAp3Cがインストールされている。
動画取得支援アプリAp3Cにより実現される機能としては、先の図15で説明した指示受付処理部F11、ランダム選択処理部F12、撮像動画取得処理部F13、及び動画表示制御処理部F14としての機能があるが、この場合、指示受付処理部F11による機能が第一実施形態の場合とは異なる。また、以下で説明する動画送信制御処理部F15としての機能が追加された点が第一実施形態の場合と異なる。
このような動画送信制御処理部F15により、視点切替動画に対して任意の動画を連結させた動画をサーバ装置9に生成させることが可能とされる。
追加動画としては、例えば出演者が曲紹介のコメントをしている様子を撮影した曲紹介動画等とすることが考えられる。
本例では、追加動画は視点切替動画の始点側に連結されることを前提とする。
図24Aは、第三実施形態におけるユーザ端末10が表示する編集画面G21の例を示している。
この場合、編集画面G21を始めとして動画取得支援アプリAp3Cにより提供される画面には、前述した一覧画面ボタンB20、編集画面ボタンB21、プレビュー画面ボタンB22と共に、追加動画画面ボタンB27が表示される。
ユーザは、該追加動画画面ボタンB27を操作することで、図24Bに示すような追加動画画面G23をユーザ端末10に表示させることができる。
なお、図示は省略するが、追加動画画面G23には、録画中の撮像動画を画面内にて表示することができる。録画終了操作の受け付けとしては、例えば「撮影開始」ボタンB28の操作に応じて該「撮影開始」ボタンB28に代えて「撮影終了」ボタンを表示し、該「撮影終了」ボタンの操作を受け付けることが考えられる。
また、「再撮影ボタン」B30の操作に応じては、追加動画画面G23の表示内容が図24Bに示す状態に戻され、ユーザは再度「撮影開始」ボタンB28を操作することで追加動画の撮り直し(録画し直し)を行うことができる。
「確定」ボタンB31の操作に応じては、撮影された追加動画が視点切替動画への連結対象動画として確定される。
一方、追加動画付きの視点切替動画を生成したい場合は、追加動画画面G23での上記の操作により追加動画の撮影を行って「確定」ボタンB31を操作した上で、編集画面G21での編集操作を行って「編集実行」ボタンB23を操作する。これにより、以下で説明するようにして追加動画付きの視点切替動画の生成が行われる。
図25及び図26のフローチャートを参照し、第四実施形態のユーザ端末10が行うべき処理について説明する。
これら図25及び図26に示す処理は、ユーザ端末10が動画取得支援アプリAp3Cとしてのプログラムに従って実行する。この場合におけるユーザ端末10が実行すべき処理は、先の図17や図18に示したステップS504の処理、及び図17及び図20に示した一連の処理のうち図20に示した処理(「編集実行」ボタンB23の操作に応じて実行される処理)が異なる。このため、以下では第四実施形態の場合に実行されるべきこれらの処理について説明する。
この場合のユーザ端末10は、図17に示すステップS510で「確定」ボタンB26が操作されたと判定したことに応じ、図26に示すステップS1101において追加動画フラグが「ON」であるか否かを判定する。
追加動画フラグが「ON」でなければ、ユーザ端末10は先の第一実施形態の場合と同様にステップS512、S513、及びS514の処理を実行して図17から図26に続く一連の処理を終える。
すなわち、この場合は追加動画付きでない視点切替動画がサーバ装置9で生成され、ユーザ端末10にダウンロードされる。
ステップS1104の処理を実行したことに応じ、ユーザ端末10は図17から図26に続く一連の処理を終える。
上記のように第四実施形態の情報処理装置(ユーザ端末10)においては、指示受付部(指示受付処理部F11)は、複数の撮像動画以外の動画を指定する指示を受け付け、指示された動画とランダム選択部による選択結果とが外部装置に送信されるように制御する動画送信制御部(動画送信制御処理部F15)を備えている。
従って、動画内容の自由度向上を図ることができ、ユーザにとっての有益性を高めることができる。
従って、ユーザにとっての有益性向上と利便性向上との両立を図ることができる。
以上、本技術に係る情報処理装置の実施形態としての制御端末1、ユーザ端末10を説明してきたが、実施形態の第一のプログラムは、制御端末1(又は撮像管理端末5)の処理を情報処理装置(CPU等)に実行させるプログラムである。
すなわち、このプログラムは、例えば制御端末1等の情報処理装置に図10等により説明した処理を実行させるプログラムに相当する。
すなわち、このプログラムは、例えばユーザ端末10等のコンピュータ装置に図17や図19等により説明した処理を実行させるプログラムに相当するものである。
そして、このようなプログラムはコンピュータ装置等の機器に内蔵されている記憶媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記憶しておくことができる。或いはまた、半導体メモリ、メモリーカード、光ディスク、光磁気ディスク、磁気ディスクなどのリムーバブル記憶媒体に、一時的あるいは永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記憶媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記憶媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
本技術は上記した具体例に限定されるものではなく、多様な変形例が考えられる。
例えば、上記では本技術がライブ演奏の撮像に適用される例を挙げたが、本技術は、例えば複数の人物が順に講演を行う講演会イベント等、ライブ演奏以外の他の対象についての撮像にも好適に適用できる。
本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、手術室システムに適用されてもよい。
支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図27に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図29では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a〜5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a〜5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
図30を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図30は、図29に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
なお本技術は以下のような構成も採ることができる。
(1)
撮像装置による撮像動画における一部の範囲を、ユーザへの配信対象となる動画部分として指定するイン点及びアウト点の情報を取得する情報取得部と、
前記情報取得部が取得した前記イン点及びアウト点の情報と前記撮像動画とを外部装置に対して送信させる送信制御部と、を備える
情報処理装置。
(2)
前記送信制御部は、
前記撮像動画として、複数の撮像装置による複数の撮像動画を前記外部装置に対して送信させる
前記(1)に記載の情報処理装置。
(3)
前記送信制御部は、
前記動画部分と、前記動画部分を識別するための動画部分識別情報とを対応付けて前記外部装置に対して送信させる
前記(1)又は(2)に記載の情報処理装置。
(4)
前記情報取得部は、
前記動画部分の配信対象者を識別するための対象者識別情報を取得し、
前記送信制御部は、
前記動画部分識別情報と前記対象者識別情報とを対応付けて前記外部装置に対して送信させる
前記(3)に記載の情報処理装置。
(5)
前記情報取得部は、
前記イン点及びアウト点の情報として、前記撮像動画における異なる複数の前記動画部分をそれぞれ指定する複数組の前記イン点及びアウト点の情報を取得すると共に、前記動画部分ごとの前記対象者識別情報を取得し、
前記送信制御部は、
前記対象者識別情報が取得された前記動画部分ごとに、前記動画部分識別情報と前記対象者識別情報とを対応付けて前記外部装置に対して送信させる
前記(4)に記載の情報処理装置。
(6)
前記撮像動画中における前記動画部分の時間軸上での位置を表す視覚情報と、前記撮像動画中の時間軸上の位置を指示するためのポインタと、前記ポインタが指示する位置を前記イン点の位置として指示するためのイン点指示操作子と、前記ポインタが指示する位置を前記アウト点の位置として指示するためのアウト点指示操作子とを画面上に表示させる情報表示制御部を備え、
前記情報表示制御部は、
前記視覚情報における前記動画部分を表す表示領域のうち前記イン点に近い領域と前記アウト点に近い領域とで表示態様を異ならせると共に、前記イン点に近い領域と前記イン点指示操作子の表示態様と、前記アウト点に近い領域と前記アウト点指示操作子の表示態様をそれぞれ一致させる
前記(1)乃至(5)の何れかに記載の情報処理装置。
(7)
前記撮像動画に対するアウト点の指示が行われたことに応じて、当該指示されたアウト点に対応する前記動画部分についての購入情報入力フォームの生成指示を行う入力フォーム生成指示部を備える
前記(1)乃至(6)の何れかに記載の情報処理装置。
(8)
異なる撮像視点から被写体を撮像した複数の撮像動画に基づいて撮像視点が経時的に切り替えられる一つの視点切替動画を生成するための指示として、前記撮像視点の切替間隔の指示を受け付ける指示受付部と、
前記切替間隔により区分される前記視点切替動画の各動画区間に用いるべき動画を前記複数の撮像動画のうちからランダムに選択するランダム選択部と、を備える
情報処理装置。
(9)
前記指示受付部は、
前記視点切替動画として生成すべき動画の全体時間長の指示を受け付けると共に、
指示された前記全体時間長に基づいて計算した前記切替間隔の情報をユーザに提示する
前記(8)に記載の情報処理装置。
(10)
前記撮像動画には音情報が付帯され、
前記指示受付部は、
前記音情報の音特性に基づいて計算した前記切替間隔の情報をユーザに提示する
前記(8)又は(9)に記載の情報処理装置。
(11)
前記ランダム選択部は、
前記視点切替動画の各動画区間に用いるべき動画の少なくとも一つとして前記撮像動画の一部の画素領域を拡大した拡大動画を選択する
前記(8)乃至(10)の何れかに記載の情報処理装置。
(12)
前記ランダム選択部は、
前記視点切替動画の各動画区間に用いるべき動画として前記拡大動画を用いるか否かをランダムに選択する
前記(11)に記載の情報処理装置。
(13)
前記指示受付部は、
前記ランダム選択部による前記選択の再実行指示の受け付けを行う
前記(8)乃至(12)の何れかに記載の情報処理装置。
(14)
前記指示受付部は、
前記複数の撮像動画以外の動画を指定する指示を受け付け、
前記指示された動画と前記ランダム選択部による選択結果とが外部装置に送信されるように制御する動画送信制御部を備える
前記(8)乃至(13)の何れかに記載の情報処理装置。
(15)
被写体を撮像する撮像部を備え、
前記指示受付部は、
前記撮像部により撮像された動画のうちから前記視点切替動画に連結されるべき動画の指定指示を受け付ける
前記(14)に記載の情報処理装置。
(16)
外部装置からデータ軽量化処理の施された前記複数の撮像動画を取得する撮像動画取得部と、
前記データ軽量化処理の施された前記複数の撮像動画に基づき、前記ランダム選択部による選択結果に従った前記視点切替動画の表示制御を行う動画表示制御部と、を備える
前記(8)乃至(15)の何れかに記載の情報処理装置。
Claims (20)
- 撮像装置による撮像動画における一部の範囲を、ユーザへの配信対象となる動画部分として指定するイン点及びアウト点の情報を取得する情報取得部と、
前記情報取得部が取得した前記イン点及びアウト点の情報と前記撮像動画とを外部装置に対して送信させる送信制御部と、を備える
情報処理装置。 - 前記送信制御部は、
前記撮像動画として、複数の撮像装置による複数の撮像動画を前記外部装置に対して送信させる
請求項1に記載の情報処理装置。 - 前記送信制御部は、
前記動画部分と、前記動画部分を識別するための動画部分識別情報とを対応付けて前記外部装置に対して送信させる
請求項1に記載の情報処理装置。 - 前記情報取得部は、
前記動画部分の配信対象者を識別するための対象者識別情報を取得し、
前記送信制御部は、
前記動画部分識別情報と前記対象者識別情報とを対応付けて前記外部装置に対して送信させる
請求項3に記載の情報処理装置。 - 前記情報取得部は、
前記イン点及びアウト点の情報として、前記撮像動画における異なる複数の前記動画部分をそれぞれ指定する複数組の前記イン点及びアウト点の情報を取得すると共に、前記動画部分ごとの前記対象者識別情報を取得し、
前記送信制御部は、
前記対象者識別情報が取得された前記動画部分ごとに、前記動画部分識別情報と前記対象者識別情報とを対応付けて前記外部装置に対して送信させる
請求項4に記載の情報処理装置。 - 前記撮像動画中における前記動画部分の時間軸上での位置を表す視覚情報と、前記撮像動画中の時間軸上の位置を指示するためのポインタと、前記ポインタが指示する位置を前記イン点の位置として指示するためのイン点指示操作子と、前記ポインタが指示する位置を前記アウト点の位置として指示するためのアウト点指示操作子とを画面上に表示させる情報表示制御部を備え、
前記情報表示制御部は、
前記視覚情報における前記動画部分を表す表示領域のうち前記イン点に近い領域と前記アウト点に近い領域とで表示態様を異ならせると共に、前記イン点に近い領域と前記イン点指示操作子の表示態様と、前記アウト点に近い領域と前記アウト点指示操作子の表示態様をそれぞれ一致させる
請求項1に記載の情報処理装置。 - 前記撮像動画に対する前記アウト点の指示が行われたことに応じて、当該指示されたアウト点に対応する前記動画部分についての購入情報入力フォームの生成指示を行う入力フォーム生成指示部を備える
請求項1に記載の情報処理装置。 - 撮像装置による撮像動画における一部の範囲を、ユーザへの配信対象となる動画部分として指定するイン点及びアウト点の情報を取得する情報取得ステップと、
前記情報取得ステップが取得した前記イン点及びアウト点の情報と前記撮像動画とを外部装置に対して送信させる送信制御ステップと、
を情報処理装置が実行する
情報処理方法。 - 撮像装置による撮像動画における一部の範囲を、ユーザへの配信対象となる動画部分として指定するイン点及びアウト点の情報を取得する情報取得機能と、
前記情報取得機能が取得した前記イン点及びアウト点の情報と前記撮像動画とを外部装置に対して送信させる送信制御機能と、
を情報処理装置に実現させる
プログラム。 - 異なる撮像視点から被写体を撮像した複数の撮像動画に基づいて撮像視点が経時的に切り替えられる一つの視点切替動画を生成するための指示として、前記撮像視点の切替間隔の指示を受け付ける指示受付部と、
前記切替間隔により区分される前記視点切替動画の各動画区間に用いるべき動画を前記複数の撮像動画のうちからランダムに選択するランダム選択部と、を備える
情報処理装置。 - 前記指示受付部は、
前記視点切替動画として生成すべき動画の全体時間長の指示を受け付けると共に、
指示された前記全体時間長に基づいて計算した前記切替間隔の情報をユーザに提示する
請求項10に記載の情報処理装置。 - 前記撮像動画には音情報が付帯され、
前記指示受付部は、
前記音情報の音特性に基づいて計算した前記切替間隔の情報をユーザに提示する
請求項10に記載の情報処理装置。 - 前記ランダム選択部は、
前記視点切替動画の各動画区間に用いるべき動画の少なくとも一つとして前記撮像動画の一部の画素領域を拡大した拡大動画を選択する
請求項10に記載の情報処理装置。 - 前記ランダム選択部は、
前記視点切替動画の各動画区間に用いるべき動画として前記拡大動画を用いるか否かをランダムに選択する
請求項13に記載の情報処理装置。 - 前記指示受付部は、
前記ランダム選択部による前記選択の再実行指示の受け付けを行う
請求項10に記載の情報処理装置。 - 前記指示受付部は、
前記複数の撮像動画以外の動画を指定する指示を受け付け、
前記指示された動画と前記ランダム選択部による選択結果とが外部装置に送信されるように制御する動画送信制御部を備える
請求項10に記載の情報処理装置。 - 被写体を撮像する撮像部を備え、
前記指示受付部は、
前記撮像部により撮像された動画のうちから前記視点切替動画に連結されるべき動画の指定指示を受け付ける
請求項16に記載の情報処理装置。 - 外部装置からデータ軽量化処理の施された前記複数の撮像動画を取得する撮像動画取得部と、
前記データ軽量化処理の施された前記複数の撮像動画に基づき、前記ランダム選択部による選択結果に従った前記視点切替動画の表示制御を行う動画表示制御部と、を備える
請求項10に記載の情報処理装置。 - 異なる撮像視点から被写体を撮像した複数の撮像動画に基づいて撮像視点が経時的に切り替えられる一つの視点切替動画を生成するための指示として、前記撮像視点の切替間隔の指示を受け付ける指示受付ステップと、
前記切替間隔により区分される前記視点切替動画の各動画区間に用いるべき動画を前記複数の撮像動画のうちからランダムに選択するランダム選択ステップと、
を情報処理装置が実行する
情報処理方法。 - 異なる撮像視点から被写体を撮像した複数の撮像動画に基づいて撮像視点が経時的に切り替えられる一つの視点切替動画を生成するための指示として、前記撮像視点の切替間隔の指示を受け付ける指示受付機能と、
前記切替間隔により区分される前記視点切替動画の各動画区間に用いるべき動画を前記複数の撮像動画のうちからランダムに選択するランダム選択機能と、
を情報処理装置に実現させる
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022098169A JP7367807B2 (ja) | 2017-02-28 | 2022-06-17 | 情報処理装置、情報処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037785 | 2017-02-28 | ||
JP2017037785 | 2017-02-28 | ||
PCT/JP2017/043822 WO2018159054A1 (ja) | 2017-02-28 | 2017-12-06 | 情報処理装置、情報処理方法、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022098169A Division JP7367807B2 (ja) | 2017-02-28 | 2022-06-17 | 情報処理装置、情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018159054A1 true JPWO2018159054A1 (ja) | 2019-12-19 |
JP7095677B2 JP7095677B2 (ja) | 2022-07-05 |
Family
ID=63369886
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019502467A Active JP7095677B2 (ja) | 2017-02-28 | 2017-12-06 | 情報処理装置、情報処理方法、プログラム |
JP2022098169A Active JP7367807B2 (ja) | 2017-02-28 | 2022-06-17 | 情報処理装置、情報処理方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022098169A Active JP7367807B2 (ja) | 2017-02-28 | 2022-06-17 | 情報処理装置、情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200059705A1 (ja) |
EP (1) | EP3591984A4 (ja) |
JP (2) | JP7095677B2 (ja) |
CN (1) | CN110326302A (ja) |
WO (1) | WO2018159054A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP1632925S (ja) * | 2018-05-23 | 2019-06-03 | ||
JP1633295S (ja) * | 2018-05-23 | 2019-06-03 | ||
JP7163115B2 (ja) * | 2018-09-12 | 2022-10-31 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
USD902946S1 (en) * | 2019-01-31 | 2020-11-24 | Salesforce.Com, Inc. | Display screen or portion thereof with graphical user interface |
USD888084S1 (en) * | 2019-01-31 | 2020-06-23 | Salesforce.Com, Inc. | Display screen or portion thereof with graphical user interface |
USD888085S1 (en) * | 2019-01-31 | 2020-06-23 | Salesforce.Com, Inc. | Display screen or portion thereof with graphical user interface |
USD967835S1 (en) * | 2019-09-23 | 2022-10-25 | NBCUniversal Media, LLC. | Display screen with graphical user interface |
EP3813388B1 (de) | 2019-10-24 | 2022-04-20 | Steinberg Media Technologies GmbH | Verfahren zur steuerung einer synchronen, verteilten abgabe von licht |
US11483523B2 (en) | 2019-11-26 | 2022-10-25 | The Toronto-Dominion Bank | System and method for obtaining video for use with photo-based estimation |
CN111163264B (zh) * | 2019-12-31 | 2022-02-01 | 维沃移动通信有限公司 | 一种信息显示方法及电子设备 |
CA3180246A1 (en) * | 2020-06-04 | 2021-12-09 | Kevin R. Imes | Autonomous golf competition systems and methods |
US11190828B1 (en) * | 2020-11-03 | 2021-11-30 | Dish Network L.L.C. | Systems and methods for versatile video recording |
CN113747119A (zh) * | 2021-07-30 | 2021-12-03 | 的卢技术有限公司 | 一种远程查看车辆周围环境的方法及系统 |
KR102377080B1 (ko) * | 2021-07-30 | 2022-03-22 | 아이디아이디 주식회사 | 멀티 트랙 ui 기반의 디지털 컨텐츠 생성장치 |
CN115022545B (zh) * | 2022-06-02 | 2024-04-02 | 北京字跳网络技术有限公司 | 用于内容拍摄的方法、装置、设备和存储介质 |
JP7377483B1 (ja) * | 2023-04-14 | 2023-11-10 | 株式会社モルフォ | 動画要約装置、動画要約方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003043339A1 (fr) * | 2001-11-12 | 2003-05-22 | Sony Corporation | Systeme de remise d'informations, procede, appareil de traitement d'informations et procede |
JP2005333381A (ja) * | 2004-05-19 | 2005-12-02 | Toshiba Corp | メディアデータ再生装置、メディアデータ再生システム、メディアデータ再生プログラムおよび遠隔操作プログラム |
JP2006094420A (ja) * | 2004-09-27 | 2006-04-06 | Matsushita Electric Ind Co Ltd | 画像処理装置及び画像処理方法 |
JP2009130597A (ja) * | 2007-11-22 | 2009-06-11 | Sony Corp | 単位映像表現装置、編集卓装置、編集システム、動画編集方法 |
JP2010246008A (ja) * | 2009-04-09 | 2010-10-28 | Kddi Corp | 携帯端末によって原コンテンツを編集するコンテンツ編集方法、コンテンツサーバ、システム及びプログラム |
US20100287473A1 (en) * | 2006-01-17 | 2010-11-11 | Arthur Recesso | Video analysis tool systems and methods |
JP2012049693A (ja) * | 2010-08-25 | 2012-03-08 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
US20130254816A1 (en) * | 2012-03-21 | 2013-09-26 | Sony Corporation | Temporal video tagging and distribution |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3615055B2 (ja) * | 1997-07-07 | 2005-01-26 | 株式会社東芝 | 多画面表示システム |
JP2002176613A (ja) | 2000-12-06 | 2002-06-21 | Minolta Co Ltd | 動画像編集装置、動画像編集方法および記録媒体 |
JP2004104468A (ja) | 2002-09-10 | 2004-04-02 | Sony Corp | 動画編集装置、動画編集方法、動画編集のプログラム及び動画編集のプログラムを記録した記録媒体 |
JP3781301B2 (ja) | 2003-04-23 | 2006-05-31 | 船井電機株式会社 | Dvdプレーヤ、及び映像再生装置 |
JP4300953B2 (ja) | 2003-09-25 | 2009-07-22 | ソニー株式会社 | カメラシステムおよびカメラ通信方法 |
JP4252915B2 (ja) | 2004-03-16 | 2009-04-08 | 株式会社バッファロー | データ処理装置およびデータ処理方法 |
JP4123209B2 (ja) * | 2004-09-07 | 2008-07-23 | ソニー株式会社 | 映像素材の管理装置及び方法,記録媒体並びにプログラム |
JP2007028137A (ja) | 2005-07-15 | 2007-02-01 | Fujifilm Holdings Corp | 画像編集装置および方法並びにプログラム |
US20080313541A1 (en) * | 2007-06-14 | 2008-12-18 | Yahoo! Inc. | Method and system for personalized segmentation and indexing of media |
US20100153520A1 (en) * | 2008-12-16 | 2010-06-17 | Michael Daun | Methods, systems, and media for creating, producing, and distributing video templates and video clips |
US8633984B2 (en) * | 2008-12-18 | 2014-01-21 | Honeywell International, Inc. | Process of sequentially dubbing a camera for investigation and review |
US9323438B2 (en) * | 2010-07-15 | 2016-04-26 | Apple Inc. | Media-editing application with live dragging and live editing capabilities |
KR101505335B1 (ko) * | 2010-09-08 | 2015-03-24 | 소니 주식회사 | 비디오 클립들을 제공하는 시스템 및 방법, 및 그 비디오 클립의 작성 |
JP6326892B2 (ja) | 2014-03-20 | 2018-05-23 | 大日本印刷株式会社 | 撮像システム、撮像方法、画像再生装置及びプログラム |
JP6598109B2 (ja) | 2014-12-25 | 2019-10-30 | パナソニックIpマネジメント株式会社 | 映像受信方法及び端末装置 |
CN104796781B (zh) * | 2015-03-31 | 2019-01-18 | 小米科技有限责任公司 | 视频片段提取方法及装置 |
CN106021496A (zh) * | 2016-05-19 | 2016-10-12 | 海信集团有限公司 | 视频搜索方法及视频搜索装置 |
-
2017
- 2017-12-06 EP EP17899032.1A patent/EP3591984A4/en not_active Withdrawn
- 2017-12-06 JP JP2019502467A patent/JP7095677B2/ja active Active
- 2017-12-06 CN CN201780087091.9A patent/CN110326302A/zh active Pending
- 2017-12-06 WO PCT/JP2017/043822 patent/WO2018159054A1/ja unknown
- 2017-12-06 US US16/486,200 patent/US20200059705A1/en not_active Abandoned
-
2022
- 2022-06-17 JP JP2022098169A patent/JP7367807B2/ja active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003043339A1 (fr) * | 2001-11-12 | 2003-05-22 | Sony Corporation | Systeme de remise d'informations, procede, appareil de traitement d'informations et procede |
JP2005333381A (ja) * | 2004-05-19 | 2005-12-02 | Toshiba Corp | メディアデータ再生装置、メディアデータ再生システム、メディアデータ再生プログラムおよび遠隔操作プログラム |
JP2006094420A (ja) * | 2004-09-27 | 2006-04-06 | Matsushita Electric Ind Co Ltd | 画像処理装置及び画像処理方法 |
US20100287473A1 (en) * | 2006-01-17 | 2010-11-11 | Arthur Recesso | Video analysis tool systems and methods |
JP2009130597A (ja) * | 2007-11-22 | 2009-06-11 | Sony Corp | 単位映像表現装置、編集卓装置、編集システム、動画編集方法 |
JP2010246008A (ja) * | 2009-04-09 | 2010-10-28 | Kddi Corp | 携帯端末によって原コンテンツを編集するコンテンツ編集方法、コンテンツサーバ、システム及びプログラム |
JP2012049693A (ja) * | 2010-08-25 | 2012-03-08 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
US20130254816A1 (en) * | 2012-03-21 | 2013-09-26 | Sony Corporation | Temporal video tagging and distribution |
Non-Patent Citations (2)
Title |
---|
GAO, Z., ET AL.: ""OmniViewer: Multi-modal Monoscopic 3D DASH"", PROCEEDINGS OF 2015 IEEE INTERNATIONAL SYMPOSIUM ON MULTIMEDIA (ISM), JPN6018007994, 16 December 2015 (2015-12-16), pages 449 - 452, XP032886808, ISSN: 0004661865, DOI: 10.1109/ISM.2015.80 * |
田中 秀明(外2名): "「映像データベースのための同種メディアの統合」", 情報処理学会研究報告, vol. 98, no. 2, JPN6022020388, 19 January 1998 (1998-01-19), JP, pages 31 - 36, ISSN: 0004778859 * |
Also Published As
Publication number | Publication date |
---|---|
JP7367807B2 (ja) | 2023-10-24 |
US20200059705A1 (en) | 2020-02-20 |
EP3591984A1 (en) | 2020-01-08 |
EP3591984A4 (en) | 2020-07-22 |
JP2022121503A (ja) | 2022-08-19 |
JP7095677B2 (ja) | 2022-07-05 |
CN110326302A (zh) | 2019-10-11 |
WO2018159054A1 (ja) | 2018-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7367807B2 (ja) | 情報処理装置、情報処理方法 | |
US11727642B2 (en) | Image processing apparatus, image processing method for image processing apparatus, and program | |
US10834315B2 (en) | Image transfer apparatus and moving image generating system for transferring moving image data | |
JP7283037B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP6950706B2 (ja) | 情報処理装置および方法、並びにプログラム | |
JP7196833B2 (ja) | 撮像装置、映像信号処理装置および映像信号処理方法 | |
CN111480332B (zh) | 控制器和控制方法 | |
JP2019083501A (ja) | 撮像装置 | |
JP7077557B2 (ja) | 表示制御装置および表示制御方法 | |
WO2018221068A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
WO2020217874A1 (ja) | 表示制御装置、表示制御方法および表示制御プログラム | |
US11521387B2 (en) | Information processing apparatus and information processing method | |
JP7098526B2 (ja) | 電子機器および電子機器のレーン状態制御方法 | |
JP7347499B2 (ja) | 撮像装置、撮像信号処理装置、撮像信号処理方法 | |
WO2020202812A1 (ja) | 駆動モーター、像ぶれ補正装置及び撮像装置 | |
JP7405132B2 (ja) | レンズ鏡筒及び撮像装置 | |
JPWO2020174866A1 (ja) | 可変焦点距離レンズ系及び撮像装置 | |
WO2019082686A1 (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7095677 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |