JP7394143B2 - 映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム - Google Patents

映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム Download PDF

Info

Publication number
JP7394143B2
JP7394143B2 JP2021550025A JP2021550025A JP7394143B2 JP 7394143 B2 JP7394143 B2 JP 7394143B2 JP 2021550025 A JP2021550025 A JP 2021550025A JP 2021550025 A JP2021550025 A JP 2021550025A JP 7394143 B2 JP7394143 B2 JP 7394143B2
Authority
JP
Japan
Prior art keywords
video
label
user
information
video material
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021550025A
Other languages
English (en)
Other versions
JP2022541698A (ja
Inventor
リー、ウェイクオ
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010590913.9A external-priority patent/CN111654749B/zh
Application filed by バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド
Publication of JP2022541698A publication Critical patent/JP2022541698A/ja
Application granted granted Critical
Publication of JP7394143B2 publication Critical patent/JP7394143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/835Generation of protective data, e.g. certificates
    • H04N21/8352Generation of protective data, e.g. certificates involving content or source identification data, e.g. Unique Material Identifier [UMID]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

<関連出願の相互参照>
本出願は2020年06月24日に出願され、出願番号が202010590913.9であり、発明の名称が「映像資料作成方法、装置、電子機器およびコンピュータ可読媒体」である中国特許出願の優先権を主張し、該出願の全文は引用により本出願に組み込まれる。
本出願の実施形態は、コンピュータおよび映像画像処理技術分野に関し、特に映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムに関する。
ネットワーク環境の最適化とモバイルスマート機器の普及に伴い、モバイル端末は人々の情報取得の主要な手段となっている。映像は情報をより直感的かつ明瞭に表現することができるため、重要な伝播キャリアとして広く伝播・使用されている。
ユーザは、映像を視聴するとき、特に知識型の映像またはコンテンツが豊富な映像を視聴するとき、後で視聴または学習を繰り返すために、いくつかの映像ノードでラベルまたはノートを作成することを希望している。映像プレーヤーは、倍速または手動で進行状況を調整することによって、繰り返し視聴したい映像ノードを探すことしかできないからである。
本出願の実施形態は、映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラムを提供する。
第1態様において、本出願の実施形態は映像資料作成方法であって、
ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像の、オリジナル映像におけるタイムスタンプを取得することと、
前記ユーザにより前記映像画像に対して付加されたラベル情報を取得することと、
前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することと、を含む映像資料作成方法を提供する。
いくつかの実施形態では、前記の、前記ユーザにより前記映像画像に対して付加されたラベル情報を取得することは、
前記ユーザにより前記映像画像に対して付加されたラベル情報をラベル入力モジュールにより取得することを含む。
いくつかの実施形態では、前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することは、さらに
前記ラベルと制限された使用権限とに対する説明であるラベル補助情報を取得することを含み、
前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することは、
前記ラベル情報、前記タイムスタンプ、前記ラベル補助情報を前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することを含む。
いくつかの実施形態では、前記ラベル補助情報は、ユーザ情報、ユーザコンフィグレーション情報およびオリジナル映像の識別子のうちの少なくとも1つを含む。
いくつかの実施形態では、前記ユーザ情報は、ユーザアカウントおよび/またはユーザが使用する端末装置の識別子を含み、前記ユーザコンフィグレーション情報はユーザ権限情報を含む。
いくつかの実施形態では、前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することの後、さらに
ユーザの再生指令に応答して、前記統合映像資料を解析し、前記統合映像資料データ中のすべての前記ラベルおよび前記ラベル情報を取得することと、
すべての前記ラベルを再生画面に表示することと、
前記ユーザにより選択された前記ラベルに基づき、前記ラベルに対応する前記ラベル情報を表示することと、を含む。
いくつかの実施形態では、前記の、前記ユーザにより選択された前記ラベルに基づき、前記ラベルに対応する前記ラベル情報を表示することの後、さらに
前記ユーザの前記ラベルに対する変更情報を受信し、前記変更情報に基づいて前記ラベル情報を更新することと、
更新されたラベル情報、前記タイムスタンプ、前記ラベル補助情報および前記オリジナル映像の映像データを関連付けて統合し、前記更新されたラベル情報が付加された統合映像資料を生成することと、を含む。
いくつかの実施形態では、前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することの後、さらに
共有プラットフォームにおける他のユーザが前記統合映像資料を取得するために、前記統合映像資料を前記共有プラットフォームに共有することを含む。
いくつかの実施形態では、前記の、ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得することの前に、さらに
映像使用情報に基づいて映像リソースをスクリーニングし、前記オリジナル映像を取得することを含み、ここで、前記映像使用情報は、映像の再生量、リプレイ率、ユーザコメントおよびいいね数のうちの一つまたは複数を含む。
いくつかの実施形態では、前記ラベル情報は、マークおよび/またはノートを含む。
第2態様において、本出願の実施形態は映像資料作成装置であって、
ユーザのトリガ指令に応答してラベル挿入動作をトリガするためのトリガモジュールと、
現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得するための第1取得モジュールと、
前記映像画像に対して前記ユーザにより付加されたラベル情報を取得するための第2取得モジュールと、
前記ラベル情報、前記タイムスタンプ、前記オリジナル映像の映像データを関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成するための関連付けモジュールと、を含む映像資料作成装置を提供する。
第3態様において、本出願の実施形態は電子機器であって、
1つまたは複数のプロセッサと、
1つまたは複数のプログラムが格納され、前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに第1態様のいずれかの映像資料作成方法が実現される記憶装置と、
前記プロセッサと前記記憶装置との情報インタラクションを実現するために、前記プロセッサと前記記憶装置接続するように構成される1つまたは複数のI/Oインターフェースとを含む電子機器を提供する。
第4態様において、本出願の実施形態は、コンピュータプログラムが格納されるコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行されるとき、第1態様のいずれかの映像資料作成方法が実現されるコンピュータ可読記憶媒体を提供する。
第5態様において、本出願の実施形態は、プロセッサによって実行されるとき、第1態様のいずれかの映像資料作成方法が実現されるコンピュータプログラムを提供する。
本出願の実施形態に係る映像資料作成方法は、ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得し、前記ユーザにより前記映像画像に対して付加されたラベル情報を取得し、前記ラベル情報、前記タイムスタンプおよび前記オリジナル映像の映像データを関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成し、ユーザはオリジナル映像を視聴する時、ラベル情報をオリジナル映像のデータに直接付加することができ、動作しやすく、且つオリジナル映像の完全性が保持され、後で該統合映像資料を繰り返し視聴する時、迅速かつ正確にラベル位置を特定でき、検索時間が減少し、学習効率を向上させ、それによりユーザ体験を向上できる。
図面は本出願の実施形態を更に理解するために提供され、明細書の一部であり、本実施形態と共に本出願を説明するために用いられ、本出願を限定するものではない。図面を参照して詳細に例示する実施形態を説明することにより、上記および他の特徴および利点は当業者により明らかになる。
本出願の実施形態に係る映像資料作成方法のフローチャートである。 本出願の実施形態に係るラベル編集画面を示す概略図である。 本出願の実施形態に係るもう1つの映像資料作成方法のフローチャートである。 本出願の実施形態に係るもう1つの映像資料作成方法のフローチャートである。 本出願の実施形態に係る他の1つの映像資料作成方法のフローチャートである。 本出願の実施形態に係るさらなる1つの映像資料作成方法のフローチャートである。 本出願の実施形態による映像資料作成装置の原理を示すブロック図である。 本出願の実施形態に係る電子機器の構成を示すブロック図である。
当業者が本出願の技術的解決手段をよりよく理解するために、以下に図面を参照して本出願が提供する映像資料作成方法および装置、電子機器、コンピュータ可読媒体について詳細に説明する。
以下、図面を参照しながら、例示的な実施形態をより十分に説明するが、例示的な実施形態は、様々な形態で具現化することができ、本明細書で説明する実施形態に限定されるものと解釈されるべきではない。逆に、これらの実施形態を提供する目的は、本出願を明瞭かつ完全にし、当業者が本出願の範囲を十分に理解できるようにすることである。
なお、本出願の実施形態および実施形態における各特徴は、矛盾を生じない限り、相互に組み合わせることができる。
本明細書で使用されるように、用語「および/または」は、1つ以上の関連列挙項目のいずれかおよびすべての組み合わせを含む。
本明細書で使用される用語は、特定の実施形態を説明するためにのみ使用され、本出願を限定することを意図するものではない。本明細書で使用されるように、「1つ」および「該」は、コンテキストで特に明記されない限り、複数形も含まれることを意図している。また、用語「含む」および/または「から構成される」が本明細書で使用されるとき、前記特徴、全体、ステップ、動作、要素および/またはコンポーネントの存在が指定されるが、1つまたは複数の他の特徴、全体、ステップ、動作、要素、コンポーネント、および/またはそれらのグループの存在または追加は除外されない。
他に定義されない限り、本明細書で使用されるすべての用語(技術用語および科学用語を含む)の意味は、当業者によって一般に理解されるものと同じである。また、一般的な辞書に定義されているものなどの用語は、関連技術および本出願の背景にある意味と一致する意味を有すると解釈されるべきであり、本明細書で明示的に定義されていない限り、理想的な意味または過度形式上の意味を有すると解釈されるべきではないことも理解されたい。
知識ベースの映像に対して、ユーザは後続に繰り返して視聴または学習するために、オリジナル映像の中のいくつかの映像画像(映像ノード)にラベルまたはノートを作成することを希望する。また、学習効率を向上させるために、ラベルの位置に対応する映像画像を重点的に視聴するだけで、オリジナル映像をすべて繰り返して再生せず、同時にいくつかの特殊な需要を満たすために、完全なオリジナル映像を保持し、例えば、他のユーザが完全なオリジナル映像を取得するだけでなく、現在のユーザにより付加されたラベルを取得することもできる。
現在オリジナル映像におけるターゲット映像セグメントの開始時間と映像ラベルに基づいてインデックステーブルを確立し、続いてインデックステーブルとオリジナル映像の映像の標記番号を格納することにより、映像ノートを取得する。なお、映像ノートとオリジナル映像は2つのファイルであることが理解しやすいものである。映像ノートを閲覧する必要がある場合、インデックステーブルに基づいてターゲット映像セグメントの開始・終了時間を検索し、映像の標記番号とターゲット映像セグメントの開始・終了時間に基づいてオリジナル映像を検索し、ターゲット映像セグメントを取得する。このような映像ノートとオリジナル映像の分離方式は応答速度が遅いだけでなく、また、オリジナル映像を再生する時、ユーザによる該オリジナル映像に対する映像ノートを直接取得することができず、映像ノートは映像ノートに対応するファイルから検索しなければならなく、完全なオリジナル映像を取得することができず、ユーザの体験に影響を与える。
第1態様では、本出願の実施形態は、ユーザがオリジナル映像において所望の映像画像に便利かつ迅速に特定することができるように、映像ラベル付きの統合映像資料を作成するための映像資料作成方法を提供する。
図1は、本出願の実施形態に係る映像資料作成方法のフローチャートである。図1に示すように、映像資料作成方法は以下のステップを含む。
ステップ101、ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得する。
ここで、オリジナル映像は映像リソースの発行者が発行した、端末で再生可能なオリジナル映像データである。例えば、オリジナル映像は、映画、映像コースウェア、ドキュメンタリー映画、記録された学習映像などである。オリジナル映像の映像フォーマットは、端末がサポートするMPEG、AVI、MOV、ASF、またはWMVなどのフォーマットであってもよい。
ここで、映像画像はオリジナル映像における特定の映像フレームである。現在再生中の映像画像はオリジナル映像を再生中に表示画面に表示された映像の画像である。
オリジナル映像が一つのドキュメンタリー映画である場合、ユーザはそのドキュメンタリー映画を再生するとき、ドキュメンタリー映画における特定の映像画像に興味があるとき、その映像画像にラベルを挿入することができ、後でそのドキュメンタリー映画を再生するとき、その映像画像に直接ジャンプすることができる。あるいは、ドキュメンタリー映画における特定の映像セグメントに興味がある場合には、その映像セグメントの開始位置にラベルを挿入して、後でそのドキュメンタリーセグメントのリプレイ時に、その映像セグメントの開始位置に直接ジャンプして再生を開始できるようにしてもよい。
オリジナル映像が映像コースウェアである場合、ユーザは該映像コースウェアを再生する過程において、映像コースウェアにおける特定の映像セグメントに興味がある場合、該映像セグメントの開始位置にラベルを挿入することができ、後で該映像コースウェアのリプレイ時に、該映像セグメントの開始位置に直接ジャンプして再生を開始できるようにしてもよい。あるいは、映像コースウェアにおける特定の映像画像に興味がある場合、その映像画像にラベルを挿入して、後で該映像コースウェアのリプレイ時に、その映像画像に直接ジャンプすることができる。
いくつかの実施形態では、オリジナル映像の再生中に、ユーザは、再生画面で、トリガボタン、トリガ動作、トリガ音声によって、ラベル挿入動作をトリガすることができる。端末装置がコンピュータ端末である場合、トリガ動作はマウスやキーボードなどの方式で実現することができる。例えば、マウスを用いてトリガ動作を行う場合、マウスを用いて予め設定された動作ボタンをクリックし、クリック動作はクリックまたはダブルクリックであり得る。また、キーボードを使ってトリガ動作を行うときは、予め設定されたショートカットキーを押すことができる。ショートカットキーは、キーボードの任意のキーまたは複数のキーの組み合わせであってもよい。ショートカットキーの具体的な設定方法およびショートカットキーのタイプはここで限定しない。
端末装置がモバイル端末またはタッチ機能を有する端末である場合、トリガ動作はタッチなどによって実現されてもよい。例えば、ユーザが予め設定されたボタンをタッチして実現したり、予め設定されたボタンをスライドして実現したりすることができる。
ここで、現在再生中の映像画像は現在の時刻で端末の表示画面に表示されている画像であり、タイムスタンプは映像画像のオリジナル映像における時間ノードである。例えば、端末装置では数学コースの第X章第X節の映像コースウェアを再生しており、現時点で端末の表示画面に表示されているのは該映像コースウェアの第9:30(9分30秒)の映像画像であり、そして該映像画像に対応するタイムスタンプは9:30である。
ステップ102、ユーザにより映像画像に付加されたラベル情報を取得する。
ここで、ラベル情報には、マーク、学習ノート、感想などが含まれる。ここで、マークはブックマークに相当し、映像画像が重要なものであることを示すためにのみ使用される。学習ノートは、映像画像に対してユーザが付加した注釈であり、特定の映像画像内のコンテンツに対する説明や疑問、要約または簡単な要約であってもよい。あるいは、該注釈は、映像画像および該映像画像の前にある映像セグメントに対する要約または解釈である。
例えば、ユーザは、時間ノード9:30および時間ノード9:30の前の30秒以内のコンテンツ、すなわち、時間ノード9:00から9:30までの映像コースウェアのコンテンツを要約し、時間ノード9:30にラベルを付加する。いくつかの実施形態では、ラベル情報は、映像画像に直接付加されるか、映像画像のエッジ領域に外付けされてもよい。
いくつかの実施形態では、ユーザは、プレーヤープログラムに埋め込まれたラベルコントロールであり得るラベル入力モジュールを呼び出すことによって、映像画像にラベルを付加することができる。例えば、ユーザがアクティブボタンを操作すると、ラベル入力モジュールがアクティブ化され、端末の表示画面にラベル編集画面が表示され、ユーザはラベル編集画面でコンテンツを入力、編集することができる。
図2は、本出願の実施形態によるラベル編集画面を示す概略図である。図2に示すように、ラベル編集画面は、ラベル番号エリア21と、ラベル内容編集エリア22とを含み、ここで、ラベル番号エリア21は、ラベル番号、ラベル名などの情報を入力することができる。ラベル内容編集エリア22は、ノードなどの情報を入力することができる。また、ラベル編集エリアやラベル内容編集エリアでは、入力されたコンテンツの削除、コピー、貼り付けなどの動作も可能である。
いくつかの実施形態では、ラベル入力モジュールは、端末にインストールされたアプリケーション、例えば電子メモパッドおよび付箋などのアプリケーションであり、プレーヤーはこのアプリケーションに呼び出して接続されている。ユーザがアクティブボタンをタッチすると、端末にインストールされているアプリケーションが呼び出され、そのアプリケーションのインターフェースが表示画面に表示される。例えば、電子メモパッドがプレーヤーに呼び出して接続されている場合、ユーザがアクティブボタンをスライドすると、電子メモパッドが呼び出され、表示画面に電子メモパッドのインターフェースが表示され、ユーザは電子メモパッドでラベル内容を編集することができる。ラベル内容の編集が完了すると、ユーザは完了ボタンをクリックし、ラベル内容はタイムスタンプ、オリジナル映像の映像データと自動的に関連付けることができる。
いくつかの実施形態では、ユーザがラベル挿入動作をアクティブ化する場合、アクティブ化されたラベル入力モジュールと呼び出された編集可能なアプリケーションは、表示画面の画面全体を占有してもよいし、表示画面の画面の一部を占有してもよい。
ステップ103、ラベル情報、タイムスタンプおよびオリジナル映像の映像データを関連付けて統合し、ラベル情報が付加された統合映像資料を生成する。
ここで、統合映像資料はオリジナル映像の映像データを含むだけでなく、ラベル情報およびタイムスタンプも含み、タイムスタンプはラベル情報に関連付けられ、同時に、ラベル情報、タイムスタンプはオリジナル映像の映像データに関連付けられる。ここで、関連付けとは、オリジナル映像の映像データにラベル情報を付加し、タイムスタンプと関連付けることで、ラベル情報、タイムスタンプ、オリジナル映像の映像データを1つのデータに統合することをいう。ラベルがアクティブ化されると、プレーヤーはタイムスタンプの位置に直接ジャンプし、対応する映像画像を再生することができる。
本実施形態において、データモデルによってラベル情報、タイムスタンプ、オリジナル映像の映像データを統合映像資料に統合し、統合映像資料はより多くの情報を含むオリジナル映像と見なすことができ、すなわち、統合映像資料は一つのファイルである。統合映像資料を再生する場合、プレーヤーは統合映像資料を直接解析し、タイムスタンプに基づいて該統合映像資料におけるラベルが付加されたすべての時間ノードを表示し、ユーザは対応する時間ノードをクリックするだけでラベル情報を見ることができる。ここで、データモデルは、ラベル情報、タイムスタンプをオリジナル映像の映像データと関連付けて統合できる任意のモデルを採用すればよく、本実施形態はこれに限定されない。
いくつかの実施形態では、プレーヤーが予め設定されたアイコンに従ってラベルが付加された時間ノードを表示することができる。ここで、予め設定されたアイコンは、マンガ図形、動物図形、ポインタ図形であってもよいし、時間図形であってもよい。例えば、時間図形は、時、分、秒の時間を表す。いくつかの実施形態では、統合映像資料の持続時間が1時間未満である場合、時間図形は分、秒のみを示す。統合映像資料が1時間を超えると、時間図形は時間、分、秒を示す。
本実施形態に係る映像資料作成方法は、ユーザによりトリガされたラベル挿入動作に応答し、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得する。ユーザにより映像画像に対して付加されたラベル情報を取得する。ラベル情報、タイムスタンプおよびオリジナル映像の映像データを関連付けて統合し、ラベル情報が付加された統合映像資料を生成する。統合映像資料は1つのファイルであるため、保存と共有に便利で、再生時に迅速に呼び出しやバッファリングすることが可能である。また、ユーザはオリジナル映像を視聴する際に、ラベル情報をオリジナル映像のデータに直接付加することができ、操作しやすく、かつオリジナル映像の完全性が保持され、その後に該統合映像資料を繰り返し視聴する際に、迅速かつ正確にラベルの位置に特定することができ、検索時間が短縮され、学習効率が向上され、それによりユーザ体験を向上させることができる。
図3は、本出願の実施形態に係るもう1つの映像資料作成方法のフローチャートである。図3に示すように、映像資料作成方法は以下のステップを含む。
ステップ301、ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得する。
ここで、オリジナル映像は映像リソースの発行者が発行した、端末で再生可能なオリジナル映像データである。例えば、オリジナル映像は、映画、映像コースウェア、ドキュメンタリー映画、記録された学習映像などである。オリジナル映像の映像フォーマットは、端末がサポートするMPEG、AVI、MOV、ASF、またはWMVなどのフォーマットであってもよい。
ここで、映像画像はオリジナル映像における特定の映像フレームである。現在再生中の映像画像はオリジナル映像を再生中に表示画面に表示された映像の画像である。
ここで、タイムスタンプは、オリジナル映像における映像画像の時間ノードを指す。例えば、端末装置では数学コースの第X章第X節の映像コースウェアを再生しており、現時点で端末の表示画面に表示されているのは該映像コースウェアの第9:30(9分30秒)の映像画像であり、該映像画像に対応するタイムスタンプは9:30である。
ここで、ラベルは、マーク、学習ノート、感想などであってもよい。マークの更なる説明については上記実施形態のステップ101を参照することができ、簡略化するため、ここでは詳述しない。
いくつかの実施形態では、ユーザは、再生画面において、トリガボタン、トリガ動作、トリガ音声によってラベル挿入動作をトリガすることができる。また、ラベル挿入動作をトリガすることは、端末によっては異なる場合もある。例えば、端末がコンピュータである場合、マウスまたはキーボードを介してラベル挿入動作をトリガすることができる。端末が携帯電話である場合、タッチ方式でラベル挿入動作をトリガできる。
ステップ302、ユーザにより映像画像に付加されたラベル情報を取得する。
ここで、ラベル情報には、マーク、学習ノート、感想などが含まれる。ここで、マークはブックマークに相当し、映像画像が重要なものであることを示すためにのみ使用される。学習ノートは、映像画像に対してユーザが付加した注釈であり、特定の映像画像内のコンテンツに対する説明や疑問、要約または簡単な要約であってもよい。あるいは、該注釈は、映像画像および該映像画像の前にある映像セグメントに対する要約または解釈である。
例えば、ユーザは、時間ノード9:30および時間ノード9:30の前の30秒以内のコンテンツ、すなわち、時間ノード9:00から9:30までの映像コースウェアのコンテンツを要約し、時間ノード9:30にラベルを付加する。いくつかの実施形態では、ラベル情報は、映像画像に直接付加されるか、映像画像のエッジ領域に外付けされてもよい。
いくつかの実施形態では、ユーザは、プレーヤープログラムに埋め込まれたラベルコントロールであり得るラベル入力モジュールを呼び出すことによって、映像画像にラベルを付加することができる。例えば、ユーザがアクティブボタンを操作すると、ラベル入力モジュールがアクティブ化され、端末の表示画面にラベル編集画面が表示され、ユーザはラベル編集画面でコンテンツを入力、編集することができる。
ステップ303、ラベル補助情報を取得する。
ここで、ラベル補助情報は、ラベルおよび制限された使用権限を説明する情報である。例えば、ラベル補助情報は、ユーザ情報、ユーザコンフィグレーション情報、およびオリジナル映像の識別子のうちの少なくとも1つを含む。
いくつかの実施形態では、ユーザ情報は、ユーザアカウントおよび/またはユーザが使用する端末装置の識別子を含む。ここで、ユーザアカウントとは、オリジナル映像を視聴するユーザを区別するためのアカウント、またはラベル情報を付加したユーザを区別するためのアカウントである。ここで、ユーザアカウントはプレーヤーを使用するユーザのアカウントであってもよいし、オリジナル映像を格納するサーバにログインするユーザアカウントであってもよい。ユーザアカウントは端末にログインするユーザアカウントであってもよい。ユーザが使用する端末装置の識別子は、同様にラベルを付加したユーザを区別するために使用される。端末装置がユーザと対応関係にある場合、端末装置の識別子を利用してユーザを区別することができる。
いくつかの実施形態では、ユーザコンフィグレーション情報は、ラベルを付加したユーザがオリジナル映像に付加した、ユーザ権限情報を含む権限情報である。ここで、ユーザ権限情報はユーザの使用権限を規制するために用いられる。例えば、ユーザがラベル情報を付加するとき、ユーザAはすべてのラベル情報を見ることができ、ユーザBはマークのみを見ることができ、ノートを見ることができないというように設定することができる。また、ユーザがラベル情報を付加する際に、ユーザCが奇数番号のラベル情報を視聴することができ、ユーザDが偶数番号のラベル情報を視聴することができるというように設定することができる。
いくつかの実施形態では、オリジナル映像の識別子は、オリジナル映像を区別するために一意である。オリジナル映像の識別子に基づいて対応するオリジナル映像を得ることができる。
ステップ304、ラベル情報、タイムスタンプ、オリジナル映像の映像データおよびラベル補助情報を関連付けて統合し、ラベル情報が付加された統合映像資料を生成する。
いくつかの実施形態では、ラベル情報、タイムスタンプ、ラベル補助情報、およびオリジナル映像の映像データは、データモデルによって統合映像資料に統合され、統合映像資料は、より多くの情報を含むオリジナル映像であると見なすことができ、すなわち、統合映像資料は1つのファイルである。統合映像資料を再生する場合、プレーヤーは統合映像資料を直接解析し、タイムスタンプに基づいて該統合映像資料におけるラベルが付加されたすべての時間ノードを表示し、ユーザは対応する時間ノードをクリックするだけでラベル情報を見ることができる。ここで、データモデルは、ラベル情報、タイムスタンプをオリジナル映像の映像データと関連付けて統合できる任意のモデルを採用すればよく、本実施形態はこれに限定されない。
オリジナル映像の識別子は一意性を有するため、オリジナル映像の識別子に基づいて統合映像資料を区別することができる。ユーザが統合映像資料を共有プラットフォームに共有する場合、他のユーザはオリジナル映像の識別子に基づいて対応する統合映像資料を取得し、ユーザ情報に基づいて該統合映像資料の作成者を取得し、ユーザ権限情報に基づいて再生権限を取得することができる。
ステップ305、統合映像資料を保存する。
いくつかの実施形態では、ユーザは、統合映像資料をローカル記憶媒体に、またはオリジナル映像の発信元に、または必要に応じてサードパーティのサーバに格納することができる。
図4は、本出願の実施形態に係るもう1つの映像資料作成方法のフローチャートである。図4に示すように、映像資料作成方法は以下のステップを含む。
ステップ401、ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得する。
ここで、オリジナル映像は映像リソースの発行者が発行した、端末で再生可能なオリジナル映像データである。例えば、オリジナル映像は、映画、映像コースウェア、ドキュメンタリー映画、記録された学習映像などである。オリジナル映像の映像フォーマットは、端末がサポートするMPEG、AVI、MOV、ASF、またはWMVなどのフォーマットであってもよい。
ここで、映像画像はオリジナル映像における特定の映像フレームである。現在再生中の映像画像はオリジナル映像を再生中に表示画面に表示された映像の画像である。
ここで、タイムスタンプは、オリジナル映像における映像画像の時間ノードを指す。例えば、端末装置では数学コースの第X章第X節の映像コースウェアを再生しており、現時点で端末の表示画面に表示されているのは該映像コースウェアの第9:30(9分30秒)の映像画像であり、該映像画像に対応するタイムスタンプは9:30である。
ここで、ラベルは、マーク、学習ノート、感想などであってもよい。マークの更なる説明については上記実施形態のステップ101を参照することができ、簡略化するため、ここでは詳述しない。
いくつかの実施形態では、ユーザは、再生画面において、トリガボタン、トリガ動作、トリガ音声によってラベル挿入動作をトリガすることができる。また、ラベル挿入動作をトリガすることは、端末によっては異なる場合もある。例えば、端末がコンピュータである場合、マウスまたはキーボードを介してラベル挿入動作をトリガすることができる。端末が携帯電話である場合、タッチ方式でラベル挿入動作をトリガできる。
ステップ402、ユーザにより映像画像に付加されたラベル情報を取得する。
ここで、ラベル情報には、マーク、学習ノート、感想などが含まれる。ここで、マークはブックマークに相当し、映像画像が重要なものであることを示すためにのみ使用される。学習ノートは、映像画像に対してユーザが付加した注釈であり、特定の映像画像内のコンテンツに対する説明や疑問、要約または簡単な要約であってもよい。あるいは、該注釈は、映像画像および該映像画像の前にある映像セグメントに対する要約または解釈である。
例えば、ユーザは、時間ノード9:30および時間ノード9:30の前の30秒以内のコンテンツ、すなわち、時間ノード9:00から9:30までの映像コースウェアのコンテンツを要約し、時間ノード9:30にラベルを付加する。いくつかの実施形態では、ラベル情報は、映像画像に直接付加されるか、映像画像のエッジ領域に外付けされてもよい。
いくつかの実施形態では、ユーザは、プレーヤープログラムに埋め込まれたラベルコントロールであり得るラベル入力モジュールを呼び出すことによって、映像画像にラベルを付加することができる。例えば、ユーザがアクティブボタンを操作すると、ラベル入力モジュールがアクティブ化され、端末の表示画面にラベル編集画面が表示され、ユーザはラベル編集画面でコンテンツを入力、編集することができる。
ステップ403、ラベル補助情報を取得する。
ここで、ラベル補助情報は、ラベルおよび制限された使用権限を説明する情報である。例えば、ラベル補助情報は、ユーザ情報、ユーザコンフィグレーション情報、およびオリジナル映像の識別子のうちの少なくとも1つを含む。
いくつかの実施形態では、ユーザ情報は、ユーザアカウントおよび/またはユーザが使用する端末装置の識別子を含む。ここで、ユーザアカウントとは、オリジナル映像を視聴するユーザを区別するためのアカウント、またはラベル情報を付加したユーザを区別するためのアカウントである。ここで、ユーザアカウントはプレーヤーを使用するユーザのアカウントであってもよいし、オリジナル映像を格納するサーバにログインするユーザアカウントであってもよい。ユーザアカウントは端末にログインするユーザアカウントであってもよい。ユーザが使用する端末装置の識別子は、同様にラベルを付加したユーザを区別するために使用される。端末装置がユーザと対応関係にある場合、端末装置の識別子を利用してユーザを区別することができる。
いくつかの実施形態では、ユーザコンフィグレーション情報は、ラベルを付加したユーザがオリジナル映像に付加した、ユーザ権限情報を含む権限情報である。ここで、ユーザ権限情報はユーザの使用権限を規制するために用いられる。例えば、ユーザがラベル情報を付加するとき、ユーザAはすべてのラベル情報を見ることができ、ユーザBはマークのみを見ることができ、ノートを見ることができないというように設定することができる。また、ユーザがラベル情報を付加する際に、ユーザCが奇数番号のラベル情報を視聴することができ、ユーザDが偶数番号のラベル情報を視聴することができるというように設定することができる。
いくつかの実施形態では、オリジナル映像の識別子は、オリジナル映像を区別するために一意である。オリジナル映像の識別子に基づいて対応するオリジナル映像を得ることができる。
ステップ404、ラベル情報、タイムスタンプ、オリジナル映像の映像データおよびラベル補助情報を関連付けて統合し、ラベル情報が付加された統合映像資料を生成する。
いくつかの実施形態では、統合映像資料は、ラベル情報、タイムスタンプ、オリジナル映像の映像データ、およびラベル補助情報を含み、ラベル情報、タイムスタンプ、およびラベル補助情報は、オリジナル映像の映像データに関連付けられる。
オリジナル映像の識別子は一意性を有するため、オリジナル映像の識別子に基づいて統合映像資料を区別することができる。
ユーザが統合映像資料を共有プラットフォームに共有する場合、他のユーザはオリジナル映像の識別子に基づいて対応する統合映像資料を取得し、ユーザ情報に基づいて該統合映像資料の作成者を取得し、ユーザ権限情報に基づいて再生権限を取得することができる。
いくつかの実施形態では、ユーザは、統合映像資料をローカル記憶媒体に、またはオリジナル映像の発信元に、または必要に応じてサードパーティのサーバに格納することができる。
ステップ405、共有プラットフォームにおける他のユーザが統合映像資料を取得するために、統合映像資料を共有プラットフォームに共有する。
いくつかの実施形態では、ユーザは統合映像資料を共有プラットフォームに共有し、共有プラットフォームを介して友人または他の人に共有する。ここで、共有プラットフォームは、ユーザが現在ログインしている共有プラットフォームであってもよいし、現在ログインしている共有プラットフォームとは異なるサードパーティの共有プラットフォームであってもよい。
共有プラットフォームを介して統合映像資料を取得した他のユーザは、そのプレーヤーによって統合映像資料を解析した後、プレーヤーはラベル補助情報におけるユーザ権限情報に基づいて該他のユーザの権限を判断し、かつ権限に従って統合映像資料を再生する。
いくつかの実施形態では、ユーザは統合映像資料を再生するとき、再生位置を迅速に特定するために、ラベルが挿入された時間ノードをすべて再生画面に表示することができる。また、ユーザはラベル情報を修正することもできる。
図5は、本出願の実施形態に係るさらなる1つの映像資料作成方法のフローチャートである。図5に示すように、映像資料作成方法は以下のステップを含む。
ステップ501、ユーザの再生指令に応答し、統合映像資料にラベルがあるか否かを判断する。
ここで、プレーヤーはユーザの再生指令を受信した後、統合映像資料にラベルがあるか否かを判断する。いくつかの実施形態では、プレーヤーは、ラベルデータに基づいて統合映像資料にラベルがあるか否かを判断することができる。
ステップ502、統合映像資料を解析し、統合映像資料におけるすべてのラベルとラベル情報を取得する。
本実施形態では、統合映像資料にラベルが含まれている場合、統合映像資料を解析し、統合映像資料におけるすべてのラベルとラベル情報を取得する。
ステップ503、再生画面にすべてのラベルを表示する。
ここで、再生画面は、端末の表示画面の全部または一部である。例えば、端末の表示画面に複数の参照プログラムが表示される場合、再生画面は、端末の表示画面の一部であってもよい。端末の表示画面にプレーヤーのみが表示される場合、再生画面は端末の全表示画面であってもよい。しかしながら、端末の表示画面にプレーヤーのみが表示される場合、再生画面は、端末の表示画面の一部であってもよい。
本実施形態では、再生画面にすべてのラベルを表示すると、ユーザが迅速かつ正確に所望の再生位置を特定することに役立ち、検索時間を短縮し、効率を向上させ、それによりユーザの体験を向上させる。
ステップ504、ユーザにより選択されたラベルに基づき、ラベルに対応するラベル情報を表示する。
いくつかの実施形態では、ユーザは、ラベル情報をさらに表示する必要がある場合、ラベルをタッチにより選択することができる。例えば、ユーザがラベルアイコンをクリックすると、そのラベルアイコンに対応するラベル情報が表示画面に表示される。
ステップ505、ラベルに対するユーザの修正情報を受信し、修正情報に基づいてラベル情報を更新する。
いくつかの実施形態では、ユーザがラベル情報を修正する必要がある場合、修正ボタンをクリックして、ラベル入力モジュールにアクセスして修正してもよい。他のいくつかの実施形態では、ユーザがラベルアイコンをクリックすると、ラベル情報がラベル入力モジュールに直接表示され、こうすると、ユーザはラベル情報を直接修正し、ラベル情報を更新することができる。
ステップ506、更新されたラベル情報、タイムスタンプ、ラベル補助情報およびオリジナル映像の映像データを関連付けて統合し、前記更新されたラベル情報が付加された統合映像資料を生成する。
ステップ507、更新後の統合映像資料を格納するかまたは共有プラットフォームで共有する。
いくつかの実施形態では、ユーザは、統合映像資料をローカル記憶媒体に、またはオリジナル映像の発信元に、または必要に応じてサードパーティのサーバに格納することができる。あるいは、更新後の統合映像資料を共有プラットフォームで共有する。あるいは、更新された統合映像資料を保存すると同時に、共有プラットフォームで共有する。
図6は、本出願の実施形態に係る他の1つの映像資料作成方法のフローチャートである。図6に示すように、映像資料作成方法は以下のステップを含む。
ステップ601、映像使用情報に基づいて映像リソースをスクリーニングし、オリジナル映像を取得する。
ここで、映像使用情報は、映像の再生量、リプレイ率、ユーザコメントおよびいいね数のうちの1つまたは複数を含む。
映像資料作成プラットフォームまたは、ネットワークから学習資料を取得したい幾つかのユーザは、バックグラウンドのビッグデータ解析モジュールによって映像資料の映像使用情報を解析し、解析結果に基づいて価値のあるオリジナル映像資料を選択することができ、リソースの無駄使いを減らすことができる。
ステップ602、ユーザによりトリガされたラベル挿入動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得する。
ここで、映像画像はオリジナル映像における特定の映像フレームである。現在再生中の映像画像はオリジナル映像を再生中に表示画面に表示された映像の画像である。
ここで、タイムスタンプは、オリジナル映像における映像画像の時間ノードを指す。例えば、端末装置では数学コースの第X章第X節の映像コースウェアを再生しており、現時点で端末の表示画面に表示されているのは該映像コースウェアの第9:30(9分30秒)の映像画像であり、該映像画像に対応するタイムスタンプは9:30である。
ここで、ラベルは、マーク、学習ノート、感想などであってもよい。マークの更なる説明については上記実施形態のステップ101を参照することができ、簡略化するため、ここでは詳述しない。
いくつかの実施形態では、ユーザは、再生画面において、トリガボタン、トリガ動作、トリガ音声によってラベル挿入動作をトリガすることができる。また、ラベル挿入動作をトリガすることは、端末によっては異なる場合もある。例えば、端末がコンピュータである場合、マウスまたはキーボードを介してラベル挿入動作をトリガすることができる。端末が携帯電話である場合、タッチ方式でラベル挿入動作をトリガできる。
ステップ603、ユーザにより映像画像に付加されたラベル情報を取得する。
ここで、ラベル情報には、マーク、学習ノート、感想などが含まれる。ここで、マークはブックマークに相当し、映像画像が重要なものであることを示すためにのみ使用される。学習ノートは、映像画像に対してユーザが付加した注釈であり、特定の映像画像内のコンテンツに対する説明や疑問、要約または簡単な要約であってもよい。あるいは、該注釈は、映像画像および該映像画像の前にある映像セグメントに対する要約または解釈である。
いくつかの実施形態では、ユーザは、プレーヤープログラムに埋め込まれたラベルコントロールであり得るラベル入力モジュールを呼び出すことによって、映像画像にラベルを付加することができる。例えば、ユーザがアクティブボタンを操作すると、ラベル入力モジュールがアクティブ化され、端末の表示画面にラベル編集画面が表示され、ユーザはラベル編集画面でコンテンツを入力、編集することができる。
ステップ604、ラベル補助情報を取得する。
ここで、ラベル補助情報は、ラベルおよび制限された使用権限を説明する情報である。例えば、ラベル補助情報は、ユーザ情報、ユーザコンフィグレーション情報、およびオリジナル映像の識別子のうちの少なくとも1つを含む。
いくつかの実施形態では、ユーザ情報は、ユーザアカウントおよび/またはユーザが使用する端末装置の識別子を含む。ここで、ユーザアカウントとは、オリジナル映像を視聴するユーザを区別するためのアカウント、またはラベル情報を付加したユーザを区別するためのアカウントである。ここで、ユーザアカウントはプレーヤーを使用するユーザのアカウントであってもよいし、オリジナル映像を格納するサーバにログインするユーザアカウントであってもよい。ユーザアカウントは端末にログインするユーザアカウントであってもよい。ユーザが使用する端末装置の識別子は、同様にラベルを付加したユーザを区別するために使用される。端末装置がユーザと対応関係にある場合、端末装置の識別子を利用してユーザを区別することができる。
ステップ605、ラベル情報、タイムスタンプ、オリジナル映像の映像データおよびラベル補助情報を関連付けて統合し、ラベル情報が付加された統合映像資料を生成する。
いくつかの実施形態では、統合映像資料は、ラベル情報、タイムスタンプ、オリジナル映像の映像データ、およびラベル補助情報を含み、ラベル情報、タイムスタンプ、およびラベル補助情報は、オリジナル映像の映像データに関連付けられる。
ステップ606、共有プラットフォームにおける他のユーザが統合映像資料を取得するために、統合映像資料を共有プラットフォームに共有する。
いくつかの実施形態では、ユーザは統合映像資料を共有プラットフォームに共有し、共有プラットフォームを介して友人または他の人に共有する。ここで、共有プラットフォームは、ユーザが現在ログインしている共有プラットフォームであってもよいし、現在ログインしている共有プラットフォームとは異なるサードパーティの共有プラットフォームであってもよい。
ステップ607、統合映像資料を再生する時に、統合映像資料を解析し、統合映像資料データのすべてのラベルおよびラベル情報を取得する。
本実施形態では、統合映像資料にラベルが含まれている場合、統合映像資料を解析し、統合映像資料におけるすべてのラベルとラベル情報を取得する。
ステップ608、再生画面にすべてのラベルを表示する。
ここで、再生画面は、端末の表示画面の全部または一部である。例えば、端末の表示画面に複数の参照プログラムが表示される場合、再生画面は、端末の表示画面の一部であってもよい。端末の表示画面にプレーヤーのみが表示される場合、再生画面は端末の全表示画面であってもよい。しかしながら、端末の表示画面にプレーヤーのみが表示される場合、再生画面は、端末の表示画面の一部であってもよい。
ステップ609、ユーザにより選択されたラベルに基づき、ラベルに対応するラベル情報を表示する。
いくつかの実施形態では、ユーザは、ラベル情報をさらに表示する必要がある場合、ラベルをタッチにより選択することができる。例えば、ユーザがラベルアイコンをクリックすると、そのラベルアイコンに対応するラベル情報が表示画面に表示される。
ステップ610、ラベルに対するユーザの修正情報を受信し、修正情報に基づいてラベル情報を更新する。
いくつかの実施形態では、ユーザがラベル情報を修正する必要がある場合、修正ボタンをクリックして、ラベル入力モジュールにアクセスして修正してもよい。他のいくつかの実施形態では、ユーザがラベルアイコンをクリックすると、ラベル情報がラベル入力モジュールに直接表示され、こうすると、ユーザはラベル情報を直接修正し、ラベル情報を更新することができる。
ステップ611、更新されたラベル情報、タイムスタンプ、ラベル補助情報およびオリジナル映像の映像データを関連付けて統合し、前記更新されたラベル情報が付加された統合映像資料を生成する。
ステップ612、更新後の統合映像資料を格納するかまたは共有プラットフォームで共有する。
本実施形態に係る映像資料作成方法は、ユーザによりトリガされたラベル挿入動作に応答し、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得する。ユーザにより映像画像に対して付加されたラベル情報を取得する。ラベル情報、タイムスタンプおよびオリジナル映像の映像データを関連付けて統合し、ラベル情報が付加された統合映像資料を生成する。統合映像資料は1つのファイルであるため、保存と共有に便利で、再生時に迅速に呼び出しやバッファリングすることが可能である。また、ユーザはオリジナル映像を視聴する際に、ラベル情報をオリジナル映像のデータに直接付加することができ、操作しやすく、かつオリジナル映像の完全性が保持され、その後に該統合映像資料を繰り返し視聴する際に、迅速かつ正確にラベルの位置に特定することができ、検索時間が短縮され、学習効率が向上され、それによりユーザ体験を向上させることができる。
第2態様において、本出願の実施形態は映像資料作成装置を提供する。図7は、本出願の実施形態による映像資料作成装置の原理を示すブロック図である。図7に示すように、映像資料作成装置は以下のモジュールを含む。
トリガモジュール701、ユーザのトリガ指令に応答してラベル挿入動作をトリガするように構成される。
いくつかの実施形態では、オリジナル映像の再生中に、ユーザは、再生画面で、トリガボタン、トリガ動作、トリガ音声によって、ラベル挿入動作をトリガすることができる。端末装置がコンピュータ端末である場合、トリガ動作はマウスやキーボードなどの方式で実現することができる。例えば、マウスを用いてトリガ動作を行う場合、マウスを用いて予め設定された動作ボタンをクリックし、クリック動作はクリックまたはダブルクリックであり得る。また、キーボードを使ってトリガ動作を行うときは、予め設定されたショートカットキーを押すことができる。ショートカットキーは、キーボードの任意のキーまたは複数のキーの組み合わせであってもよい。ショートカットキーの具体的な設定方法およびショートカットキーのタイプはここで限定しない。
第1取得モジュール702、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得するように構成される。
ここで、タイムスタンプは、オリジナル映像における映像画像の時間ノードを指す。現在再生中の映像画像とは、現在時刻に端末の表示画面に表示されている画像である。例えば、端末装置では数学コースの第X章第X節の映像コースウェアを再生しており、現時点で端末の表示画面に表示されているのは該映像コースウェアの第9:30(9分30秒)の映像画像であり、そして該映像画像に対応するタイムスタンプは9:30である。
第2取得モジュール703、ユーザにより映像画像に付加されるラベル情報を取得するように構成される。
ここで、ラベル情報には、マーク、学習ノート、感想などが含まれる。ここで、マークはブックマークに相当し、映像画像が重要なものであることを示すためにのみ使用される。学習ノートは、映像画像に対してユーザが付加した注釈であり、特定の映像画像内のコンテンツに対する説明や疑問、要約または簡単な要約であってもよい。あるいは、該注釈は、映像画像および該映像画像の前にある映像セグメントに対する要約または解釈である。
いくつかの実施形態では、ユーザは、プレーヤープログラムに埋め込まれたラベルコントロールであり得るラベル入力モジュールを呼び出すことによって、映像画像にラベルを付加することができる。例えば、ユーザがアクティブボタンを操作すると、ラベル入力モジュールがアクティブ化され、端末の表示画面にラベル編集画面が表示され、ユーザはラベル編集画面でコンテンツを入力、編集することができる。
いくつかの実施形態では、第2取得モジュール703は、ラベル入力モジュールである。ここで、ラベル入力モジュールは、端末にインストールされたアプリケーション、例えば電子メモパッド、付箋等のアプリケーションであり、このアプリケーションはプレーヤーと関連付けられている。ユーザがアクティブボタンをタッチすると、端末にインストールされているアプリケーションが呼び出され、そのアプリケーションのインターフェースが表示画面に表示される。例えば、電子メモパッドがプレーヤーに関連付けられている場合、ユーザがアクティブボタンをスライドすると、電子メモパッドが呼び出され、表示画面に電子メモパッドのインターフェースが表示され、ユーザは電子メモパッドでラベル内容を編集することができる。ラベル内容の編集が完了すると、ユーザは完了ボタンをクリックし、ラベル内容はタイムスタンプ、オリジナル映像の映像データと自動的に関連付けることができる。
いくつかの実施形態では、ユーザがラベル挿入動作をアクティブ化する場合、アクティブ化されたラベル入力モジュールと呼び出された編集可能なアプリケーションは、表示画面の画面全体を占有してもよいし、表示画面の画面の一部を占有してもよい。
関連付けモジュール704、ラベル情報、タイムスタンプおよびオリジナル映像の映像データを関連付けて統合し、ラベル情報が付加された統合映像資料を生成するように構成される。
ここで、統合映像資料はオリジナル映像の映像データを含むだけでなく、ラベル情報およびタイムスタンプも含み、タイムスタンプはラベル情報に関連付けられ、同時に、ラベル情報、タイムスタンプはオリジナル映像の映像データに関連付けられる。
本実施形態において、データモデルによってラベル情報、タイムスタンプ、オリジナル映像の映像データを統合映像資料に統合し、統合映像資料はより多くの情報を含むオリジナル映像と見なすことができ、すなわち、統合映像資料は一つのファイルである。統合映像資料を再生する場合、プレーヤーは統合映像資料を直接解析し、タイムスタンプに基づいて該統合映像資料におけるラベルが付加されたすべての時間ノードを表示し、ユーザは対応する時間ノードをクリックするだけでラベル情報を見ることができる。ここで、データモデルは、ラベル情報、タイムスタンプをオリジナル映像の映像データと関連付けて統合できる任意のモデルを採用すればよく、本実施形態はこれに限定されない。
いくつかの実施形態では、プレーヤーが予め設定されたアイコンに従ってラベルが付加された時間ノードを表示することができる。ここで、予め設定されたアイコンは、マンガ図形、動物図形、ポインタ図形であってもよいし、時間図形であってもよい。例えば、時間図形は、時、分、秒の時間を表す。いくつかの実施形態では、統合映像資料の持続時間が1時間未満である場合、時間図形は分、秒のみを示す。統合映像資料が1時間を超えると、時間図形は時間、分、秒を示す。
本実施形態に係る映像資料作成装置において、トリガモジュールはユーザによりトリガされたラベル挿入動作に応答するように構成される。第1取得モジュールは現在再生中の映像画像の、オリジナル映像におけるタイムスタンプを取得するように構成される。第2取得モジュールはユーザにより映像画像に対して付加されたラベル情報を取得するように構成される。関連付けモジュールは、ラベル情報、タイムスタンプおよびオリジナル映像の映像データを関連付けて統合し、ラベル情報が付加された統合映像資料を生成するように構成される。統合映像資料は1つのファイルであるため、保存と共有に便利で、再生時に迅速に呼び出しやバッファリングすることが可能である。また、ユーザはオリジナル映像を視聴する際に、ラベル情報をオリジナル映像のデータに直接付加することができ、操作しやすく、かつオリジナル映像の完全性が保持され、その後に該統合映像資料を繰り返し視聴する際に、迅速かつ正確にラベルの位置に特定することができ、検索時間が短縮され、学習効率が向上され、それによりユーザ体験を向上させることができる。
第3態様において、図8に示すように、本出願の実施形態に係る電子機器は、
1つまたは複数のプロセッサ801と、
1つまたは複数のプログラムが格納され、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行されるとき、1つまたは複数のプロセッサに上記いずれかの映像資料作成方法が実装される記憶装置802と、
プロセッサと記憶装置との情報インタラクションを実現ために、プロセッサと記憶装置とを接続するように構成される1つまたは複数のI/Oインターフェース803と、を備える。
ここで、プロセッサ801はデータ処理機能を有するデバイスであり、中央処理装置(CPU)などを含むが、これらに限定されない。記憶装置802はデータ記憶機能を有するデバイスであり、ランダムアクセスメモリ(RAM、より具体的にはSDRAM、DDRなど)、読み出し専用メモリ(ROM)、電気的に消去可能で、プログラム可能な読み取り専用メモリ(EEPROM)、フラッシュメモリ(FLASH)を含むが、これらに限定されない。I/Oインターフェース(読み書きインターフェース)803はプロセッサ801と記憶装置802との間に接続され、プロセッサ801と記憶装置802との情報インタラクションを実現することができ、データバス(Bus)などを含むが、これらに限定されない。
いくつかの実施形態では、プロセッサ801、記憶装置802、およびI/Oインターフェース803は、バスを介して相互に接続され、演算デバイスの他のコンポーネントに接続される。
第4態様において、本出願の実施形態は、コンピュータプログラムが格納されるコンピュータ可読媒体であって、プログラムがプロセッサによって実行されると、上記いずれかの映像資料作成方法が実装されるコンピュータ可読媒体を提供する。
当業者であれば、本明細書で開示した方法のステップ、システム、装置の機能モジュール/ユニットのすべてまたは一部は、ソフトウェア、ファームウェア、ハードウェア、およびそれらの適切な組み合わせとして実装されてもよいことを理解するであろう。ハードウェアの実施形態において、上記の説明で言及した機能モジュール/ユニットの定義は、必ずしも物理コンポーネントの定義に対応していなくてもよく、例えば、1つの物理コンポーネントが複数の機能を有していてもよいし、1つの機能またはステップが複数の物理コンポーネントによって協働して実行されてもよい。一部の物理コンポーネントまたはすべての物理コンポーネントは、中央処理装置、デジタル信号プロセッサ、またはマイクロプロセッサなどのプロセッサによって実行されるソフトウェアとして、またはハードウェアとして、または特定用途向け集積回路などの集積回路として実装されてもよい。このようなソフトウェアは、コンピュータ記憶媒体(または非一時的な媒体)および通信媒体(または一時的な媒体)を含むことができるコンピュータ可読媒体上に設けられてもよい。当業者によく知られているように、コンピュータ記憶媒体という用語は、コンピュータ可読命令、データ構造、プログラムモジュール、または他のデータなどの情報を格納するための任意の方法または技術において実装される揮発性および不揮発性、取り外し可能および取り外し不可能な媒体を含む。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)または他の光ディスク記憶装置、磁気カートリッジ、磁気テープ、磁気ディスク記憶装置または他の磁気記憶装置、または所望の情報を格納するために使用され、コンピュータによってアクセスされ得る任意の他の媒体を含むが、これらに限定されない。さらに、当業者によく知られているように、通信媒体は、通常に、コンピュータ可読指令、データ構造、プログラムモジュール、または搬送波もしくは他の伝送機構などの変調データ信号内の他のデータを含み、任意の情報配信媒体を含んでもよい。
本明細書では例示的な実施形態を開示したが、特定の用語を使用しているが、それらは解釈用として、一般的な例示的な意味でのみ使用され、限定の目的に使用されない。いくつかの実施形態では、特定の実施形態に関連して記載された特徴、特性、および/または要素は、特に明記されない限り、単独で、または他の実施形態に関連して記載された特徴、特性、および/または要素と組み合わせて使用され得ることが当業者に明らかであろう。したがって、当業者は、添付の特許請求の範囲によって示される本出願の範囲から逸脱することなく、様々な形態および詳細の変更を行うことができることを理解するであろう。

Claims (14)

  1. ユーザによってトリガされたラベルを挿入する動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得することと、
    前記ユーザにより前記映像画像に対して付加されたラベル情報を取得することと、
    前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて1つのファイルに統合し前記ラベル情報が付加された統合映像資料を生成することであって、前記統合映像資料が再生される場合、前記タイムスタンプに基づいて前記統合映像資料におけるラベルが付加された時間ノードを表示し、前記時間ノードがクリックされると、前記ラベル情報を前記映像画像のエッジ領域に外付けるように表示することと、を含む映像資料作成方法。
  2. 前記の、前記ユーザにより前記映像画像に対して付加されたラベル情報を取得することは、前記ユーザにより前記映像画像に対して付加されたラベル情報をラベル入力モジュールにより取得することを含み、
    前記ラベル入力モジュールは、プレーヤープログラムに埋め込まれたラベルコントロールである請求項1に記載の映像資料作成方法。
  3. 前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することの前に、さらに前記ラベルと制限された使用権限とに対する説明であるラベル補助情報を取得することを含み、
    前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することは、前記ラベル情報、前記タイムスタンプ、前記ラベル補助情報を前記オリジナル映像の映像データと関連付けて1つのファイルに統合し、前記ラベル情報が付加された統合映像資料を生成することを含む請求項1または2に記載の映像資料作成方法。
  4. 前記ラベル補助情報は、ユーザ情報、ユーザコンフィグレーション情報およびオリジナル映像の識別子のうちの少なくとも1つを含む請求項3に記載の映像資料作成方法。
  5. 前記ユーザ情報は、ユーザアカウントおよび/またはユーザが使用する端末装置の識別子を含み、前記ユーザコンフィグレーション情報はユーザ権限情報を含む請求項4に記載の映像資料作成方法。
  6. 前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて1つのファイルに統合し、前記ラベル情報が付加された統合映像資料を生成することの後、さらに
    ユーザの再生指令に応答して、前記統合映像資料を解析し、前記統合映像資料のデータ中のすべての前記ラベルおよび前記ラベル情報を取得することと、
    すべての前記ラベルを再生画面に表示することと、
    前記ユーザにより選択された前記ラベルに基づき、前記ラベルに対応する前記ラベル情報を表示することと、を含む請求項3~5のいずれか1項に記載の映像資料作成方法。
  7. 前記の、前記ユーザにより選択された前記ラベルに基づき、前記ラベルに対応する前記ラベル情報を表示することの後、さらに
    前記ユーザの前記ラベルに対する変更情報を受信し、前記変更情報に基づいて前記ラベル情報を更新することと、
    更新されたラベル情報、前記タイムスタンプ、前記ラベル補助情報および前記オリジナル映像の映像データを関連付けて1つのファイルに統合し、前記更新されたラベル情報が付加された統合映像資料を生成することと、を含む請求項6に記載の映像資料作成方法。
  8. 前記の、前記ラベル情報、前記タイムスタンプを前記オリジナル映像の映像データと関連付けて統合し、前記ラベル情報が付加された統合映像資料を生成することの後、さらに共有プラットフォームにおける他のユーザが前記統合映像資料を取得するために、前記統合映像資料を前記共有プラットフォームに共有することを含む請求項1~5のいずれか1項に記載の映像資料作成方法。
  9. 前記の、ユーザによってトリガされたラベルを挿入する動作に応答して、現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得することの前に、さらに映像使用情報に基づいて映像リソースをスクリーニングし、前記オリジナル映像を取得することを含み、
    ここで、前記映像使用情報は、映像の再生量、リプレイ率、ユーザコメントおよびいいね数のうちの1つまたは複数を含む請求項1~5のいずれか1項に記載の映像資料作成方法。
  10. 前記ラベル情報は、マークおよび/またはノートを含む請求項1~5のいずれか1項に記載の映像資料作成方法。
  11. ユーザのトリガ指令に応答してラベルを挿入する動作をトリガするためのトリガモジュールと、
    現在再生中の映像画像のオリジナル映像におけるタイムスタンプを取得するための第1取得モジュールと、
    前記映像画像に対して前記ユーザにより付加されたラベル情報を取得するための第2取得モジュールと、
    前記ラベル情報、前記タイムスタンプおよび前記オリジナル映像の映像データを関連付けて1つのファイルに統合し、前記ラベル情報が付加された統合映像資料を生成するための関連付けモジュールであって、前記統合映像資料が再生される場合、前記タイムスタンプに基づいて前記統合映像資料におけるラベルが付加された時間ノードを表示し、前記時間ノードがクリックされると、前記ラベル情報を前記映像画像のエッジ領域に外付けるように表示する、関連付けモジュールと、を含む映像資料作成装置。
  12. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムが格納され、前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに請求項1~10のいずれか1項に記載の映像資料作成方法が実行される記憶装置と、前記プロセッサと前記記憶装置との情報インタラクションを実現するために、前記プロセッサと前記記憶装置とを接続するように構成される1つまたは複数のI/Oインターフェースと、
    を含む電子機器。
  13. コンピュータプログラムが格納されるコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1~10のいずれか1項に記載の映像資料作成方法が実現される、コンピュータ可読媒体。
  14. プロセッサによって実行されるとき、請求項1~10のいずれか1項に記載の映像資料作成方法が実現されるコンピュータプログラム。
JP2021550025A 2020-06-24 2020-12-07 映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム Active JP7394143B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010590913.9A CN111654749B (zh) 2020-06-24 2020-06-24 视频资料制作方法及装置、电子设备、计算机可读介质
CN202010590913.9 2020-06-24
PCT/CN2020/134291 WO2021258655A1 (zh) 2020-06-24 2020-12-07 视频资料制作方法及装置、电子设备、计算机可读介质

Publications (2)

Publication Number Publication Date
JP2022541698A JP2022541698A (ja) 2022-09-27
JP7394143B2 true JP7394143B2 (ja) 2023-12-07

Family

ID=77926569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021550025A Active JP7394143B2 (ja) 2020-06-24 2020-12-07 映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム

Country Status (4)

Country Link
US (1) US20210397652A1 (ja)
EP (1) EP3958580A4 (ja)
JP (1) JP7394143B2 (ja)
KR (1) KR20210114536A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115474093B (zh) * 2022-11-02 2023-03-24 深圳市云积分科技有限公司 视频要素重要度的计算方法及装置、存储介质、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011515896A (ja) 2008-02-19 2011-05-19 グーグル インコーポレイテッド ビデオインターバルへの注釈
US20180035137A1 (en) 2015-07-27 2018-02-01 Tencent Technology (Shenzhen) Company Limited Video sharing method and device, and video playing method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3747884B2 (ja) * 2002-05-23 2006-02-22 ソニー株式会社 コンテンツ記録再生装置及びコンテンツ記録再生方法、並びにコンピュータ・プログラム
US7954049B2 (en) * 2006-05-15 2011-05-31 Microsoft Corporation Annotating multimedia files along a timeline
US8566353B2 (en) * 2008-06-03 2013-10-22 Google Inc. Web-based system for collaborative generation of interactive videos
US9191238B2 (en) * 2008-07-23 2015-11-17 Yahoo! Inc. Virtual notes in a reality overlay
US10079039B2 (en) * 2011-09-26 2018-09-18 The University Of North Carolina At Charlotte Multi-modal collaborative web-based video annotation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011515896A (ja) 2008-02-19 2011-05-19 グーグル インコーポレイテッド ビデオインターバルへの注釈
US20180035137A1 (en) 2015-07-27 2018-02-01 Tencent Technology (Shenzhen) Company Limited Video sharing method and device, and video playing method and device

Also Published As

Publication number Publication date
KR20210114536A (ko) 2021-09-23
EP3958580A1 (en) 2022-02-23
JP2022541698A (ja) 2022-09-27
US20210397652A1 (en) 2021-12-23
EP3958580A4 (en) 2022-11-09

Similar Documents

Publication Publication Date Title
WO2021258655A1 (zh) 视频资料制作方法及装置、电子设备、计算机可读介质
US20060277457A1 (en) Method and apparatus for integrating video into web logging
US10503824B2 (en) Video on charts
CN114202436A (zh) 媒体流服务中的社交交互
US7933974B2 (en) Media content for a mobile media device
US20100180218A1 (en) Editing metadata in a social network
US20190050378A1 (en) Serializable and serialized interaction representations
US20070136750A1 (en) Active preview for media items
JPH09171448A (ja) コンピュータ制御型ディスプレイシステム
CN101819799B (zh) 存储多媒体数据的存储介质及其再现设备和方法
JPH09179712A (ja) 共同作業を表現する一時的データの獲得及び再生のためのシステム
KR20080090218A (ko) 편집 파일의 자동 업로딩 방법 및 그 장치
RU2705793C1 (ru) Управление воспроизведением видеоматериалов с использованием сенсорных жестов
CN108282673B (zh) 一种播放记录的更新方法、服务器及客户端
WO2019032194A1 (en) CREATING, MANAGING AND TRANSFERRING SETS OF REPRESENTATIONS OF INTERACTIONS
CN113395605B (zh) 视频笔记生成方法及装置
Meixner et al. An html5 player for interactive non-linear video with time-based collaborative annotations
JP7394143B2 (ja) 映像資料作成方法および装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
JP2007267356A (ja) ファイル管理プログラム、サムネイル画像表示方法および動画再生装置
KR101477492B1 (ko) 동영상 콘텐츠 편집 및 재생을 위한 장치 및 그 방법
US20140250055A1 (en) Systems and Methods for Associating Metadata With Media Using Metadata Placeholders
KR101853322B1 (ko) 학습 콘텐츠 편집 기능을 가진 학습 애플리케이션 제공 단말 및 그 학습 콘텐츠 편집 방법
KR20180093301A (ko) 멀티미디어 콘텐츠의 메모 기능 구현 방법
US10531142B2 (en) Multimedia progress tracker
Wang et al. Playing Audio and Video

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R150 Certificate of patent or registration of utility model

Ref document number: 7394143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150