JP7256173B2 - 情報処理装置、情報処理装置およびプログラム - Google Patents
情報処理装置、情報処理装置およびプログラム Download PDFInfo
- Publication number
- JP7256173B2 JP7256173B2 JP2020510690A JP2020510690A JP7256173B2 JP 7256173 B2 JP7256173 B2 JP 7256173B2 JP 2020510690 A JP2020510690 A JP 2020510690A JP 2020510690 A JP2020510690 A JP 2020510690A JP 7256173 B2 JP7256173 B2 JP 7256173B2
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- user
- service
- processing device
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 164
- 230000006870 function Effects 0.000 claims description 40
- 238000000034 method Methods 0.000 claims description 32
- 238000012545 processing Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 14
- 230000000007 visual effect Effects 0.000 claims description 10
- 238000003672 processing method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 53
- 238000005516 engineering process Methods 0.000 description 13
- AWSBQWZZLBPUQH-UHFFFAOYSA-N mdat Chemical compound C1=C2CC(N)CCC2=CC2=C1OCO2 AWSBQWZZLBPUQH-UHFFFAOYSA-N 0.000 description 10
- 239000002131 composite material Substances 0.000 description 7
- 238000001914 filtration Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/748—Hypervideo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7834—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9562—Bookmark management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
- H04N21/4348—Demultiplexing of additional data and video streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4722—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
- H04N21/8133—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/487—Arrangements for providing information services, e.g. recorded voice services or time announcements
- H04M3/493—Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
- H04M3/4936—Speech interaction details
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本実施形態の情報処理装置4は、ユーザからの音声による要求を処理するサービスを利用可能なサービス対象物を含む映像データを取得して再生するAVデコーダ41と、再生した映像にサービス対象物をユーザに教示するための付加画像を付加し、ユーザにより任意に選択された付加画像付きのシーンに対するブックマークとして、映像データの識別情報および付加画像の開始時刻および終了時刻の情報を保存するアプリケーション実行環境43、ブックマークブラウザ51およびブックマークデータベース50を有する。
図1は本技術に係る第1の実施形態の情報処理装置4を含む情報処理システム100の全体構成を示すブロック図である。なお、同図は本実施形態の情報処理装置4を含む情報処理システム100において映像データに合成する付加画像を生成する部分の構成を示している。
同図に示すように、この情報処理システム100は、サーバ群1、放送/ネット配信システム2、音声AIアシスタントサービス端末3、およびユーザの情報処理装置4を含む。
サーバ群1は、動画コンテンツサーバ11、アプリケーションサーバ12、POIメタデータサーバ13、および音声AIアシスタントサービスプログラムサーバ14を含む。
情報処理装置4は、ハードウェア要素として、CPU(Central Processing Unit)と、RAM(Random Access Memory)などのメインメモリと、HDD(Hard Disk Drive)、SSD(Solid State Drive)などのストレージデバイスと、ユーザインタフェースと、アンテナおよび放送チューナなどの放送受信部と、ネットワークインタフェースなどの通信インタフェースとを備える。情報処理装置4は、具体的には、パーソナルコンピュータ、スマートホン、タブレット端末、テレビジョン、ゲーム機、HMD(Head Mounted Display)などのユーザ装着可能形の情報端末などであってよい。
音声AIアシスタントサービス端末3は、情報処理装置4のユーザUに対し、音声によるアシスタントサービスを提供する端末である。音声AIアシスタントサービス端末3は、より具体的には、映像中でユーザUより任意のサービス対象物についての音声によるサービス要求を受け付け、そのサービスを実行し、サービスの実行結果をユーザUに音声などで返すことのできる装置である。ここで、ユーザUからの音声によるサービス要求は例えば質問形式などの言葉により与えられ、サービスの実行結果は例えば回答形式などの合成音声によってユーザUに返される。
図2は、本実施形態の情報処理システム100における全体的動作の流れ(その1)を示すシーケンス図である。
前提として、動画コンテンツのデータ、アプリケーションおよびPOIメタデータがそれぞれ別々のサーバ(動画コンテンツサーバ11、アプリケーションサーバ12、POIメタデータサーバ13)から配信される場合を想定している。
図3は本実施形態の情報処理システム100における全体的動作の流れ(その2)を示すシーケンス図である。
前述の動作の流れ(その1)では、動画コンテンツのデータとPOIメタデータがそれぞれ別々のサーバ(動画コンテンツサーバ11、POIメタデータサーバ13)から情報処理装置4に配信されるため、情報処理装置4において動画コンテンツデータとPOIメタデータとの同期が保証されない。
図4は本実施形態の情報処理システム100における全体的動作の流れ(その3)を示すシーケンス図である。
この動作の流れでは、動画コンテンツサーバ11から情報処理装置4に、動画コンテンツのデータとPOIメタデータとこれを処理するアプリケーションが所定のデータ構造にまとめて配信される場合を想定している。
次に、POIメタデータに基づき生成される付加画像について説明する。
図5は付加画像が重畳された映像の例を示す図である。
同図に示すように、付加画像は、例えば、映像中の音声AIアシスタントサービスのサービス対象物J1、J2、J3にそれぞれ付随した吹き出し51、52、53として提示されてよい。
図6はPOIメタデータの構成を示すブロック図である。
POIメタデータは、POIアイコンイメージ、POI提示色、POI提示位置、POI提示テキスト、POIフィルタリング情報、POI利用制限情報、音声アシスタンスサービスバックエンド制御情報を含む。
<POIIcon iconPng='true'>…(base64エンコードされたpngファイル)…</POIIcon>
<POIIcon iconPngURL='true'>http://…(アイコンpngファイルのURL)…</POIIcon>
<POIColor>...(CSS color code)…</POIColor>
<POITargetContentID URL='http://a.com/番組A.MPD'/>
<POIApplication URL='http://a.com/番組AのためのPOI提示アプリ.html(POI提示アプリのURL)'/>
<POITimePosition start='P0Y0M0DT1H15M2.000S(開始時刻)'end='P0Y0M0DT1H15M2.500S(終了時刻)'/>
<POISPosition x='345(x 座標ピクセル)'y='567(y 座標ピクセル)'/>
<POIText>…(提示文字列)…</POIText>
<POITargetUser demographicClass='true'>…(ユーザデモグラフィッククラス識別名)…</POITargetUser>
<POITargetUser privateAccount='true'>https://…(サービスのユーザアカウント識別URL等)…</POITargetUser>
<POIAccessControl rightsExpressionLanguage='ODRL'><<![CDATA[…(ODRLで表現されたアクセス制御記述)…]]></POIAccessControl>
これはPOI利用制限情報がODRLで表現された記述であることの宣言であり、アプリケーション実行環境43はこのPOI利用制限情報の宣言を確認すると、POI利用制限情報に基づいて特定のサービス対象物の音声アシスタントサービスによる情報提供に対する利用制限があることを、その制限内容とともにユーザに通知するようになっている。なお、POI利用制限情報の内容については後で説明する。
<POIBackEndControl ServerSideScriptType='機能名' ContextID='(機能コンテクストを対応させるような場合に用いる当該コンテクストスイッチurl)'>…(当該機能名)…</POIBackEndControl>
上記の実施形態では、動画コンテンツの映像中の音声AIアシスタントサービスのサービス対象物に付加画像を提示することとした。しかしながら、例えば、図7に示すように、一つのシーンに多数のサービス対象物J1-J5が存在する場合にはそれらのサービス対象物J1-J5の数分の付加画像51-55が提示されるため、これらの付加画像51-55によって番組の映像の一部が隠れてしまい、番組映像の見た目が損なわれるおそれがある。
ここで、ステップS401-S405の動作は、図2に示した動作の流れ(その1)のステップS101-S105と同じであるから、説明を省略する。
1.ユーザ判別モジュール47は、カメラで撮像したユーザUの顔画像の解析結果からユーザUの性別や年齢層などの属性を推定し、推定した属性からユーザデモグラフィッククラスを判別する。
2.ユーザ判別モジュール47は、音声AIアシスタントサービス端末3からユーザUへの音声による質問を通して得られた情報を基にユーザUの属性を推定し、ユーザデモグラフィッククラスを判別する。
3.情報処理装置4を使用する複数のユーザが限定されている場合において、各ユーザのユーザ名に対応付けてユーザデモグラフィッククラスの識別名あるいはユーザ識別情報を予め登録しておくことで、ユーザ判別モジュール47は、生体認証、カード認証などの認証を通して確認されたユーザ名から対応するユーザデモグラフィッククラスの識別名あるいはユーザ識別情報を判別することができる。
することができる。
なお、上記の説明では、性別、年齢、住んでいる地域、職業、学歴、家族内属性などの属性からユーザUのユーザデモグラフィッククラスを判別することとしたが、ユーザ判別モジュール47にて、ユーザUの視聴履歴をもとにユーザUの嗜好的な条件を算出し、この嗜好的な条件をもとに、あるいは、この嗜好的な条件を加味して、ユーザデモグラフィッククラスを判別してもよい。
次に、POIメタデータに基づくトリックプレイ再生について説明する。
POIメタデータに基づくトリックプレイ再生とは、ユーザUのユーザデモグラフィッククラスあるいはユーザ識別情報を基に抽出されたPOIメタデータに基づいて付加画像が提示されるシーンについては第1の倍速での再生を行い、その他のシーンについては第1の倍速よりも高速な第2の倍速で再生することを言う。
まず、ユーザ判別モジュール47によってユーザUのユーザデモグラフィッククラスあるいはユーザ識別情報を判別し、アプリケーション実行環境43に供給する。
ここで、サービス対象物である"Bill"と"Sam"のユーザデモグラフィッククラスは"class1"であり、ユーザ判別モジュール47によって判別されたユーザUのユーザデモグラフィッククラスが"class1"であったとする。
図11はPOIメタデータを処理するアプリケーション実行環境43の例を示す図である。
本例では、POIメタデータを処理するアプリケーションが、情報処理装置4のネイティブのオペレーティングシステム48の上で動作するネイティブアプリケーション49である場合を示している。
この例では、POIメタデータを処理するアプリケーションが、ウェブブラウザ56上で動作するウェブアプリケーション57である場合を示している。この場合、POIメタデータとウェブアプリケーション57とが互いに同時あるいは略同時に情報処理装置4に配信される。
情報処理装置4にウェブアプリケーションとPOIメタデータとを同時に配信するために、Multi-part MIME(Multipurpose Internet MAIl Extensions)フォーマットを用いて両者をパッケージングする方法がある。図13はこのウェブアプリケーションとPOIメタデータをパッケージングするMulti-part MIMEフォーマットの例を示す図である。このMulti-part MIMEフォーマットでは、boundary-partによって区切られた各部分にPOIメタデータのファイル61、ウェブアプリケーションのファイル62がそれぞれ個別に格納される。
同図に示すように、Media Segmentは複数のMovie Fragentを有し、各々のMovie Fragentはmoofボックスとmdatボックスで構成される。mdatボックスには、メディアデータが例えばフレームなどの時間の単位で複数のSampleボックスに分割されてランダムアクセス可能に格納される。moofボックスには、mdatボックスの各Sampleボックスのメディアデータを提示するタイミングを生成するための情報など、提示に関するメタデータが格納される。
MPEG-DASHでは、ストリーミング再生が途切れないように、1つの動画コンテンツについて符号化速度と画面サイズが異なる複数のデータ群が用意される。これら複数のデータ群は、情報処理装置4の画面サイズやネットワーク帯域の状態などを考慮して動的に選択される。そのためMPEG-DASHでは、上記のように1つの動画コンテンツについてどのような符号化速度と画面サイズのデータ群が用意されているかがMPD(Media Presentation Description)と呼ばれるメタデータに記述される。
MPDはサーバに格納された動画コンテンツの構成に関する情報をXML(extensible markup language)形式の階層構造で記述したものである。情報処理装置4は、目的の動画コンテンツに対応するMPDファイルをMPDファイルサーバから取得し、解析することによって、サーバから目的の動画コンテンツの提示に必要なMedia Segmentを取得する。
MPDは、その下に1つのPeriodと、その下位に各メディアのタイプごとに一つずつのAdaptationSetと、さらにその下位の複数のRepresentationとを有する。
MPEG-DASHサーバ15には、MPDファイル、および動画コンテンツの各種メディアのMedia Segmentが格納される。
N番目のSampleの提示開始時刻をPresentationTime(N)とすると、PresentationTime(N)は、BaseMediaDecodeTime+(N-1番目までのSample(1),…,(N-1)のSampleDuration(1),…,(N-1)の合計)+(N番目のSampleのCompositionTimeOffset)(N)により算出される。
図17はMPEG-DASH動画コンテンツの提示制御の流れを示す図である。
同図において、横軸は実時間(UTC time)の軸とする。情報処理装置4のCPUは、MPDファイルに定義されたMPDの起点を基準に、PeriodにMPDの起点に対する相対時間として定義された開始時刻をもとに最初のPeriodの実時間上の起点を生成する。
このMPDの最上位階層には@avAIlabilityStartTime=T0と記述されている。これは、動画コンテンツの時間の起点がT0であることを示す。その下位階層には2つのPeriodが格納される。2つのPeriodのうち、最初のPeriodはT0の起点から0sec後に開始され、2番目のPeriodはT0の起点から100sec後に開始されることが定義される。
映像の各Sample(1),(2),(3)を提示する処理は上述したとおりである。
ここで、情報処理装置4のCPUは、映像の最初のSample(1)の実時間上の提示開始時刻(PresentationTime)(1)から次のSample(2)の実時間上の提示開始時刻(PresentationTime)(2)までの間に、POIメタデータ(1)に基づく付加画像の提示処理を行う。この後、情報処理装置4のCPUは、Sample(2)の実時間上の提示開始時刻(PresentationTime)(2)からその次のSample(3)の実時間上の提示開始時刻(PresentationTime)(3)までの間にPOIメタデータ(2)に基づく付加画像の提示処理を行い、さらにSample(2)の実時間上の提示開始時刻(PresentationTime)(3)からその次のSample(3)の実時間上の提示開始時刻(PresentationTime)(4)までの間にPOIメタデータ(3)に基づく付加画像の提示処理を行う。
図21は映像中のサービス対象物が時間に沿って移動する場合にそのサービス対象物の移動に伴って付加画像の提示位置も移動させる場合のPOIメタデータを示す図である。
ここで、T1はPOIメタデータ(1)に基づく付加画像の提示開始時刻、T2はPOIメタデータ(2)に基づく付加画像の提示開始時刻、T3はPOIメタデータ(3)に基づく付加画像の提示開始時刻である。T1-T2はPOIメタデータ(1)に基づく付加画像の提示期間であり、この期間、付加画像は、POIメタデータ(1)中のPOIPosition要素の値(x=x1,y=y1)が示す位置に提示される。T2-T3はPOIメタデータ(2)に基づく付加画像の提示期間であり、この期間、付加画像は、POIメタデータ(2)中のPOIPosition要素の値(x=x2,y=y2)が示す位置に提示される。そしてT3-T4はPOIメタデータ(3)に基づく付加画像の提示期間であり、この期間、付加画像は、POIメタデータ(3)中のPOIPosition要素の値(x=x3,y=y3)が示す位置に提示される。
ここまで、各Sampleの映像にPOIメタデータを1対1に対応付けて付加画像の提示制御が行われる場合を想定したが、1つのPOIメタデータを連続する複数のSampleの映像に適用させてもよい。この場合、図22に示すように、POIメタデータのファイル63、64、65を格納したパッケージ66、67、68に記述されるPOIメタデータの識別子(metadataURI)の値にバージョン情報(Version)が付加される。このバージョン情報は、直前のPOIメタデータに対して内容の変化がない場合には、直前のPOIメタデータを格納したパッケージに記述されるバージョン情報と同じ値とされ、直前のPOIメタデータに対して内容の変化がある場合にはインクリメントされた値に設定される。
動画コンテンツに登場する様々なサービス対象物に関してユーザへの音声アシスタントサービスが提供されるなか、特定のサービス対象物に関する音声アシスタントサービスをユーザが利用する場合には課金を要するという制限を設けてもよい。
このODRLによるPOI利用制限情報は、課金管理を行うサーバにアクセスするために必要なURLなどのアクセス情報231、対象のPOIメタデータの識別子232、アクセス利用制限対象ユーザ233、アクセス利用制限解除条件234などが記述される。すなわち、本例のPOI利用制限情報は、「当該POIに対する音声アシスタントサービスを受けたいユーザはPOIメタデータの所有者である番組Aの放送局に対して対価US1ドルを支払うことが必要となる。」という意味を有する。
ステップS601からステップS603は、情報処理装置4が動画コンテンツのデータ、POIメタデータおよびアプリケーションを取得するステップである。動画コンテンツのデータ、POIメタデータおよびアプリケーションを取得する流れは、図2、図3および図4に示した全体的動作の流れ(その1、2、3)のいずれかであってよい。本例では、例えば、POIメタデータサーバ13から動画コンテンツサーバ11に放送/ネット配信システム2を通じてPOIメタデータが供給され、アプリケーションサーバ12から情報処理装置4に放送/ネット配信システム2を通じてアプリケーションが配信される。そして動画コンテンツサーバ11にて、POIメタデータと動画コンテンツのデータとが所定のデータ構造にまとめられて情報処理装置4に放送/ネット配信システム2を通じて配信される場合を想定する。
本実施形態の情報処理システム100では、視聴中の動画コンテンツの音声アシスタントサービスを利用可能な区間のなかで、ユーザが任意の付加画像付きシーンに対してブックマークを登録し、以後の任意のタイミングでユーザにより選択されたブックマークに基づいて付加画像付きシーンを再生することが可能とされている。以下、この機能を「ブックマークを用いたタイムシフト再生」と呼ぶ。
同図に示すように、この情報処理システム100は、ブックマークを用いたタイムシフト再生に係る構成として、ブックマークデータベース50とブックマークブラウザ51を有する。
ステップS701からステップS703は、情報処理装置4が動画コンテンツのデータ、POIメタデータおよびアプリケーションを取得するステップである。動画コンテンツのデータ、POIメタデータおよびアプリケーションを取得する流れは、図2、図3および図4に示した全体的動作の流れ(その1、2、3)のいずれかであってよい。本例では、例えば、POIメタデータサーバ13から動画コンテンツサーバ11に放送/ネット配信システム2を通じてPOIメタデータが供給され、アプリケーションサーバ12から情報処理装置4に放送/ネット配信システム2を通じてアプリケーションが配信される。そして動画コンテンツサーバ11にて、POIメタデータと動画コンテンツのデータとが所定のデータ構造にまとめられて情報処理装置4に放送/ネット配信システム2を通じて配信される場合を想定する。
この例では、シーン271に登場する3つのサービス対象物それぞれについてPOIメタデータ(1)、(2)、(3)が存在する場合を示している。各POIメタデータ(1)、(2)、(3)には、音声アシスタントサービスバックエンド制御情報である機能名としてすべて共通の"機能X"が定義されている。
上記のブックマークを用いたタイムシフト再生では、ユーザUが音声で発するサービス要求の中に、POIメタデータの音声アシスタントサービスバックエンド制御情報に記述される機能名を組み込むことによって、タイムシフト再生するシーンに登場する付加画像に対して音声アシスタントサービスを実現する音声AIアシスタントサービスプログラムが音声AIアシスタントサービス端末3にセットアップされる。ところが、動画コンテンツによっては、時間帯毎に音声AIアシスタントサービス端末3にセットアップされるべき音声AIアシスタントサービスプログラムが変更されるものがある。この場合、ユーザUはサービス要求の中に組み込む機能名を時間帯によって変更しなければならず、ユーザUの負担が大きくなる。
同図は、機能AのコンテクストスイッチContext-1により特定される第1の区間と、同じく機能AのコンテクストスイッチContext-2により特定される第2の区間とで異なる音声AIアシスタントサービスプログラムが使用される場合を示している。第1の区間のPOIメタデータには、POIBackEndControl要素のContextID属性の値としてコンテクストスイッチContext-1を含むURIが格納され、第2の区間のPOIメタデータには、POIBackEndControl要素のContextID属性の値としてコンテクストスイッチContext-2を含むURIが格納される。
これにより、第1の区間および第2の区間とも、ユーザUは、同じ機能名"機能A"を組み込んだサービス要求を発話することによって、各区間に対応した音声アシスタントサービスを受けることができる。
POIメタデータは、SNS等のコミュニティサービスにアップロードして他のユーザとシェアすることが可能である。この場合、例えばプレミアムな情報を提供する音声アシスタントサービスなどのシェアを禁止したりするために、POIメタデータにシェア可否制御情報を記述できることが好ましい。このシェア可否制御情報は、POIメタデータのPOI利用制限情報としてODRLなどにより記述可能である。
このシェア可否制御情報は、「当該POIメタデータをSNSメンバーに共有することができる。」ことを示す。
POIメタデータのブックマークの提示には、例えば、以下の2つの方法がある。1つ目は、POIメタデータのブックマークリストによる方法であり、2つ目はPOIメタデータと関連付けてシーンキャプチャデータベースを作成してシーンキャプチャを提示する方法である。
シーンキャプチャサーバ16は、動画コンテンツにおいて予め指定された代表的なシーンに対応するPOIメタデータ163の識別URLと、そのPOIメタデータ163に記述される付加画像の提示時間(開始時刻、終了時刻)のストリームデータから作成されるブックマーク提示用の代表シーンの画像162とを紐付けてシーンキャプチャデータとしてシーンキャプチャデータベース161に登録する。情報処理装置4のブックマークブラウザ51は、ユーザUによりブックマークとして登録されたPOIメタデータの識別URLに基づいて、シーンキャプチャサーバ16に代表シーンの画像を要求し、応答された代表シーンの画像を表示する。
(1)ユーザからの音声による要求を処理するサービスを利用可能なサービス対象物を含む映像データを取得して再生するメディア再生部と、
前記再生した映像に前記サービス対象物を前記ユーザに教示するための付加画像を付加し、前記ユーザにより任意に選択された前記付加画像付きのシーンに対するブックマークとして、前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報を保存する制御部と
を具備する情報処理装置。
前記制御部は、
前記ユーザからの任意の前記ブックマークの選択を受け付け、選択された前記ブックマークに対応する前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報に基づき前記付加画像付きの映像データを再生する
情報処理装置。
前記制御部は、前記付加情報を生成するために前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報を含むメタデータを取得し、前記取得したメタデータに基づき前記付加情報を付加する
情報処理装置。
前記メタデータが、前記ユーザからの発話によって特定される前記サービスの機能を示す機能名を含むサービスバックエンド制御情報を含み、
前記制御部は、ユーザにより選択された前記ブックマークに対応する前記メタデータに含まれる前記サービスバックエンド制御情報の前記機能名を前記ユーザに提示する
情報処理装置。
前記メタデータは、1つの機能名で時間帯毎に異なる機能を要求するための情報を含み、前記制御部は、前記情報に基づき、前記サービスの機能を切り替えるサーバに前記要求を送信する
情報処理装置。
前記制御部は、前記サービス対象物毎に前記サービスの利用に対して制限をかける
情報処理装置。
前記制限が、課金による制限である
情報処理装置。
前記制限が、前記付加画像のメタデータのコミュニティサービス上のシェアの可否に関する制限である
情報処理装置。
前記付加画像は、上記サービス対象物が上記サービスにおいて音声認識によって一意に判別され得るように、前記サービス対象物毎にユニークな視覚的特徴を有する
情報処理装置。
前記付加画像は、上記サービス対象物に付随した位置に提示される
情報処理装置。
前記制御部は、前記メタデータのAdaptationSetを含むMPDファイルを取得し、このMPDファイルを解析して、前記映像データおよび前記メタデータをそれぞれMPEG-DASHのMedia Segmentとして取得し、前記映像データと、前記メタデータに基づく前記付加画像とを互いに同期させて提示する
情報処理装置。
11…動画コンテンツサーバ
12…アプリケーションサーバ
13…POIメタデータサーバ
41…AVデコーダ
42…POIメタデータ処理モジュール
43…アプリケーション実行環境
44…レンダラ
45…ディスプレイ
46…スピーカ
47…ユーザ判別モジュール
Claims (13)
- ユーザからの音声による要求を処理するサービスを利用可能なサービス対象物を含む映像データを取得して再生するメディア再生部と、
前記再生した映像に前記サービス対象物を前記ユーザに教示するための付加画像を付加し、前記ユーザにより任意に選択された前記付加画像付きのシーンに対するブックマークとして、前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報を保存する制御部とを具備する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記制御部は、前記ユーザからの任意の前記ブックマークの選択を受け付け、選択された前記ブックマークに対応する前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報に基づき前記付加画像付きの映像データを再生する
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記制御部は、前記付加画像を生成するために前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報を含むメタデータを取得し、前記取得したメタデータに基づき前記付加画像を付加する
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記メタデータが、前記ユーザからの発話によって特定される前記サービスの機能を示す機能名を含むサービスバックエンド制御情報を含み、
前記制御部は、ユーザにより選択された前記ブックマークに対応する前記メタデータに含まれる前記サービスバックエンド制御情報の前記機能名を前記ユーザに提示する
情報処理装置。 - 請求項4に記載の情報処理装置であって、
前記メタデータは、1つの機能名で時間帯毎に異なる機能を要求するための情報を含み、
前記制御部は、前記情報に基づき、前記サービスの機能を切り替えるサーバに前記要求を送信する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記制御部は、前記サービス対象物毎に前記サービスの利用に対して制限をかける
情報処理装置。 - 請求項6に記載の情報処理装置であって、
前記制限が、課金による制限である
情報処理装置。 - 請求項6に記載の情報処理装置であって、
前記制限が、前記付加画像のメタデータのコミュニティサービス上のシェアの可否に関する制限である
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記付加画像は、上記サービス対象物が上記サービスにおいて音声認識によって一意に判別され得るように、前記サービス対象物毎にユニークな視覚的特徴を有する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
前記付加画像は、上記サービス対象物に付随した位置に提示される
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記制御部は、前記メタデータのAdaptationSetを含むMPDファイルを取得し、このMPDファイルを解析して、前記映像データおよび前記メタデータをそれぞれMPEG-DASHのMediaSegmentとして取得し、前記映像データと、前記メタデータに基づく前記付加画像とを互いに同期させて提示する
情報処理装置。 - ユーザからの音声による要求を処理するサービスを利用可能なサービス対象物を含む映像データを取得して再生し、
前記再生した映像に前記サービス対象物を前記ユーザに教示するための付加画像を付加し、前記ユーザにより任意に選択された前記付加画像付きのシーンに対するブックマークとして、前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報を保存する情報処理方法。 - ユーザからの音声による要求を処理するサービスを利用可能なサービス対象物を含む映像データを取得して再生するメディア再生部と、
前記再生した映像に前記サービス対象物を前記ユーザに教示するための付加画像を付加し、前記ユーザにより任意に選択された前記付加画像付きのシーンに対するブックマークとして、前記映像データの識別情報および前記付加画像の開始時刻および終了時刻の情報を保存する制御部として
コンピュータを機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023053357A JP7438486B2 (ja) | 2018-03-26 | 2023-03-29 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018059026 | 2018-03-26 | ||
JP2018059026 | 2018-03-26 | ||
PCT/JP2019/011131 WO2019188485A1 (ja) | 2018-03-26 | 2019-03-18 | 情報処理装置、情報処理装置およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023053357A Division JP7438486B2 (ja) | 2018-03-26 | 2023-03-29 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019188485A1 JPWO2019188485A1 (ja) | 2021-04-08 |
JP7256173B2 true JP7256173B2 (ja) | 2023-04-11 |
Family
ID=68058808
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020510690A Active JP7256173B2 (ja) | 2018-03-26 | 2019-03-18 | 情報処理装置、情報処理装置およびプログラム |
JP2023053357A Active JP7438486B2 (ja) | 2018-03-26 | 2023-03-29 | 情報処理装置、情報処理方法及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023053357A Active JP7438486B2 (ja) | 2018-03-26 | 2023-03-29 | 情報処理装置、情報処理方法及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (3) | US11405698B2 (ja) |
EP (1) | EP3780638A4 (ja) |
JP (2) | JP7256173B2 (ja) |
KR (1) | KR20200135324A (ja) |
CN (2) | CN111869225B (ja) |
WO (1) | WO2019188485A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11722474B2 (en) * | 2020-04-30 | 2023-08-08 | Vmware, Inc. | Embedding content in audio content through a voice assistant |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002369180A (ja) | 2001-06-07 | 2002-12-20 | Kyocera Corp | 携帯端末、画像配信サーバ並びに情報表示方法 |
JP2011108147A (ja) | 2009-11-20 | 2011-06-02 | Sony Corp | 情報処理装置、ブックマーク設定方法およびプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6411725B1 (en) | 1995-07-27 | 2002-06-25 | Digimarc Corporation | Watermark enabled video objects |
US8429005B2 (en) * | 1999-09-23 | 2013-04-23 | Activ8Now, Llc | Method for determining effectiveness of display of objects in advertising images |
US7987491B2 (en) * | 2002-05-10 | 2011-07-26 | Richard Reisman | Method and apparatus for browsing using alternative linkbases |
JP2005151147A (ja) * | 2003-11-14 | 2005-06-09 | Toshiba Corp | 再生装置及び再生方法 |
US20070022437A1 (en) * | 2005-07-19 | 2007-01-25 | David Gerken | Methods and apparatus for providing content and services coordinated with television content |
JP2007052484A (ja) | 2005-08-15 | 2007-03-01 | Dainippon Printing Co Ltd | 画像処理装置、画像処理方法及び画像処理用プログラム並びに情報記録媒体 |
US8705933B2 (en) * | 2009-09-25 | 2014-04-22 | Sony Corporation | Video bookmarking |
US20160182971A1 (en) * | 2009-12-31 | 2016-06-23 | Flickintel, Llc | Method, system and computer program product for obtaining and displaying supplemental data about a displayed movie, show, event or video game |
EP2619681A4 (en) * | 2010-09-21 | 2014-11-19 | Ebay Inc | PROVIDING A MARKETPLACE FOR SOFTWARE SERVICES |
US20120167145A1 (en) * | 2010-12-28 | 2012-06-28 | White Square Media, LLC | Method and apparatus for providing or utilizing interactive video with tagged objects |
JP5857450B2 (ja) * | 2011-05-30 | 2016-02-10 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN103733637B (zh) * | 2011-09-23 | 2017-06-06 | Lg电子株式会社 | 接收广播服务的方法及其接收装置 |
US9870429B2 (en) | 2011-11-30 | 2018-01-16 | Nokia Technologies Oy | Method and apparatus for web-based augmented reality application viewer |
JP6153086B2 (ja) | 2011-12-14 | 2017-06-28 | 日本電気株式会社 | 映像処理システム、映像処理方法、携帯端末用またはサーバ用の映像処理装置およびその制御方法と制御プログラム |
US20140372569A1 (en) * | 2013-06-14 | 2014-12-18 | Samsung Electronics Co., Ltd. | Controlling dash client rate adaptation |
TW201505023A (zh) | 2013-07-19 | 2015-02-01 | Richplay Information Co Ltd | 個人化語音助理之方法 |
US10659851B2 (en) * | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
JP2016192122A (ja) | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6610019B2 (ja) | 2015-06-16 | 2019-11-27 | ソニー株式会社 | 受信装置、送信装置、及び、データ処理方法 |
US10331312B2 (en) * | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
CN108431728A (zh) | 2015-12-16 | 2018-08-21 | 索尼公司 | 信息处理设备、信息处理方法以及程序 |
-
2019
- 2019-03-18 KR KR1020207026278A patent/KR20200135324A/ko unknown
- 2019-03-18 JP JP2020510690A patent/JP7256173B2/ja active Active
- 2019-03-18 EP EP19778135.4A patent/EP3780638A4/en active Pending
- 2019-03-18 WO PCT/JP2019/011131 patent/WO2019188485A1/ja unknown
- 2019-03-18 US US16/975,924 patent/US11405698B2/en active Active
- 2019-03-18 CN CN201980020562.3A patent/CN111869225B/zh active Active
- 2019-03-18 CN CN202310272428.0A patent/CN116248937A/zh active Pending
-
2022
- 2022-06-28 US US17/851,912 patent/US11765442B2/en active Active
-
2023
- 2023-03-29 JP JP2023053357A patent/JP7438486B2/ja active Active
- 2023-06-16 US US18/211,037 patent/US20230336842A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002369180A (ja) | 2001-06-07 | 2002-12-20 | Kyocera Corp | 携帯端末、画像配信サーバ並びに情報表示方法 |
JP2011108147A (ja) | 2009-11-20 | 2011-06-02 | Sony Corp | 情報処理装置、ブックマーク設定方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11405698B2 (en) | 2022-08-02 |
US20200413155A1 (en) | 2020-12-31 |
EP3780638A1 (en) | 2021-02-17 |
JP7438486B2 (ja) | 2024-02-27 |
CN111869225A (zh) | 2020-10-30 |
JPWO2019188485A1 (ja) | 2021-04-08 |
US20230336842A1 (en) | 2023-10-19 |
WO2019188485A1 (ja) | 2019-10-03 |
CN111869225B (zh) | 2023-05-02 |
US20220329919A1 (en) | 2022-10-13 |
JP2023082098A (ja) | 2023-06-13 |
KR20200135324A (ko) | 2020-12-02 |
CN116248937A (zh) | 2023-06-09 |
US11765442B2 (en) | 2023-09-19 |
EP3780638A4 (en) | 2021-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11081143B2 (en) | Providing enhanced content | |
CN103190092B (zh) | 用于流数字内容的同步重放的系统和方法 | |
US20100169906A1 (en) | User-Annotated Video Markup | |
KR101472013B1 (ko) | 부가 데이터를 포함하는 음원 스트리밍을 제공하는 서버 및 방법, 그리고 디바이스 | |
JP5397995B2 (ja) | 通信端末、コンテンツ再生方法、プログラム、コンテンツ再生システム及びサーバ | |
JP7438486B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20230217047A1 (en) | Method, system, and computer-readable recording medium for implementing fast-switching mode between channels in multi-live transmission environment | |
CN114223211A (zh) | 信息处理装置和信息处理方法 | |
JP2002176638A (ja) | データ通信システムおよび装置、データ通信方法、記録媒体 | |
JP7237927B2 (ja) | 情報処理装置、情報処理装置およびプログラム | |
JP2014099766A (ja) | 通信装置 | |
JP6258897B2 (ja) | コンテンツ取得装置、コンテンツ取得方法、メタデータ配信装置、メタデータ配信方法 | |
KR20140134097A (ko) | 클라우드 환경에서 녹화 서비스 제공 방법 및 장치 | |
JP2009065414A (ja) | 動画抽出システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220317 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7256173 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |