JP7282118B2 - Program and information processing method - Google Patents
Program and information processing method Download PDFInfo
- Publication number
- JP7282118B2 JP7282118B2 JP2021042812A JP2021042812A JP7282118B2 JP 7282118 B2 JP7282118 B2 JP 7282118B2 JP 2021042812 A JP2021042812 A JP 2021042812A JP 2021042812 A JP2021042812 A JP 2021042812A JP 7282118 B2 JP7282118 B2 JP 7282118B2
- Authority
- JP
- Japan
- Prior art keywords
- video content
- text
- utterance
- spoken
- texts
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、プログラム及び情報処理方法に関する。 The present invention relates to a program and an information processing method.
動画コンテンツにおける音声テキストに関する技術がある。例えば特許文献1には、動画コンテンツに含まれる音声に基づいて取得された音声テキストと、該動画コンテンツに含まれる字幕テキストとが対応するか否かを判定する音声確認システムが開示されている。
There are technologies related to audio text in video content. For example,
しかしながら、特許文献1に係る発明は、動画コンテンツにおける音声テキスト(発話テキスト)を登録することができない。
However, the invention according to
一つの側面では、動画コンテンツにおける発話テキストを登録することが可能なプログラム等を提供することにある。 One aspect is to provide a program or the like capable of registering spoken text in video content.
一つの側面にプログラムは、動画コンテンツ、及び前記動画コンテンツにおける話者の発話内容を記述した発話テキストを取得し、取得した動画コンテンツの再生に合わせて段階的に前記発話テキストを表示し、表示された前記発話テキストに対する登録操作を受け付けた場合に、前記発話テキストを情報処理装置に送信し、ユーザが視聴した動画コンテンツ別に前記登録操作による登録済みの前記発話テキストの一覧を示す第1タブ、及び、前記発話テキストの登録順に前記登録操作による登録済みの前記発話テキストの一覧を示す第2タブを表示し、前記第1タブの選択操作を受け付けた場合に、動画コンテンツ別に登録済みの前記発話テキストを一覧で表示し、前記第2タブの選択操作を受け付けた場合に、登録順に前記発話テキストを一覧で表示する処理をコンピュータに実行させる。 In one aspect, the program acquires video content and an utterance text describing the utterance content of a speaker in the video content, displays the utterance text step by step according to the reproduction of the acquired video content, and is displayed. a first tab that transmits the spoken text to an information processing device when an operation for registering the spoken text is received , and shows a list of the registered spoken texts by the registration operation for each video content viewed by the user; displaying a second tab showing a list of the registered utterance texts by the registration operation in the order of registration of the utterance texts, and displaying the registered utterance texts for each video content when the selection operation of the first tab is accepted. are displayed in a list, and when the selection operation of the second tab is accepted, the computer executes a process of displaying the utterance texts in a list in the order of registration.
一つの側面では、動画コンテンツにおける発話テキストを登録することが可能となる。 In one aspect, it is possible to register spoken text in video content.
以下、本発明をその実施形態を示す図面に基づいて詳述する。 Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments.
(実施形態1)
実施形態1は、動画コンテンツの再生に合わせて、該動画コンテンツにおける話者の発話内容を記述した発話テキストを表示する形態に関する。動画コンテンツは、例えば、授業用動画コンテンツ、セミナー用動画コンテンツ、インタビュー動画コンテンツ、または料理、メイク、文化もしくはゲーム等に関する動画コンテンツを含む。
(Embodiment 1)
図1は、動画配信システムの概要を示す説明図である。本実施形態のシステムは、情報処理装置1及び情報処理端末2を含み、各装置はインターネット等のネットワークNを介して情報の送受信を行う。
FIG. 1 is an explanatory diagram showing an overview of a video distribution system. The system of this embodiment includes an
情報処理装置1は、種々の情報に対する処理、記憶及び送受信を行う情報処理装置である。情報処理装置1は、例えばサーバ装置、パーソナルコンピュータまたは汎用のタブレットPC(パソコン)等である。本実施形態において、情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。
The
情報処理端末2は、動画コンテンツの受信及び再生、並びに、該動画コンテンツにおける発話テキストの取得及び表示等を行う端末装置である。情報処理端末2は、例えばスマートフォン、携帯電話、タブレット、パーソナルコンピュータ端末等の情報処理機器である。以下では簡潔のため、情報処理端末2を端末2と読み替える。
The
本実施形態に係るサーバ1は、動画コンテンツ、及び該動画コンテンツにおける話者の発話内容を記述した発話テキストを取得する。サーバ1は、取得した動画コンテンツの再生に合わせて、段階的に該動画コンテンツにおける発話テキストを画面に表示する。サーバ1は、発話テキストに対する登録操作を受け付けた場合、該発話テキストを登録(記憶)する。
The
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、入力部14、表示部15、読取部16及び大容量記憶部17を含む。各構成はバスBで接続されている。
FIG. 2 is a block diagram showing a configuration example of the
制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1Pを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、制御プログラム1Pは、単一のコンピュータ上で、または1つのサイトにおいて配置されるか、もしくは複数のサイトにわたって分散され、通信ネットワークによって相互接続された複数のコンピュータ上で実行されるように展開することができる。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。
The
記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、端末2との間で情報の送受信を行う。
The
入力部14は、マウス、キーボード、タッチパネル、ボタン等の入力デバイスであり、受け付けた操作情報を制御部11へ出力する。表示部15は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、制御部11の指示に従い各種情報を表示する。
The
読取部16は、CD(Compact Disc)-ROM又はDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部16を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部17に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部17に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。
The
大容量記憶部17は、例えばHDD(Hard disk drive:ハードディスク)、SSD(Solid State Drive:ソリッドステートドライブ)等の記録媒体を備える。大容量記憶部17は、動画コンテンツDB(database)171、発話テキストDB172、ユーザDB173、履歴DB174、ノートDB175及びカテゴリDB176を含む。
The large-
動画コンテンツDB171は、動画コンテンツに関する情報を記憶している。発話テキストDB172は、動画コンテンツにおける話者の発話内容を記述した発話テキストを記憶している。ユーザDB173は、ユーザに関する情報を記憶している。履歴DB174は、ユーザが動画コンテンツを視聴した履歴を記憶している。ノートDB175は、ユーザの登録操作により登録された発話テキストを記憶している。カテゴリDB176は、動画コンテンツのカテゴリを記憶している。
The
なお、本実施形態において記憶部12及び大容量記憶部17は一体の記憶装置として構成されていても良い。また、大容量記憶部17は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部17はサーバ1に接続された外部記憶装置であっても良い。
In addition, in this embodiment, the
サーバ1はコンピュータ単体で実行しても良いし、複数のコンピュータで分散して実行しても良いし、1台のサーバ内に設けられた複数の仮想マシンによって実現されても良いし、クラウドサーバを用いて実現されても良い。
The
図3は、動画コンテンツDB171及び発話テキストDB172のレコードレイアウトの一例を示す説明図である。
動画コンテンツDB171は、動画コンテンツID列、カテゴリID列、動画列、タイトル列、サムネイル画像列及び公開日列を含む。動画コンテンツID列は、各動画コンテンツを識別するために、一意に特定される動画コンテンツのIDを記憶している。
FIG. 3 is an explanatory diagram showing an example of record layouts of the
The
カテゴリID列は、動画コンテンツのカテゴリを特定するカテゴリIDを記憶している。動画列は、動画コンテンツのデータを記憶している。タイトル列は、動画コンテンツのタイトルを記憶している。サムネイル画像列は、動画コンテンツのサムネイル画像を記憶している。公開日列は、動画コンテンツを公開した日付を記憶している。 The category ID column stores category IDs that specify categories of video content. The moving image column stores data of moving image content. The title column stores titles of video content. The thumbnail image row stores thumbnail images of moving image content. The release date column stores the dates when the video content was released.
発話テキストDB172は、動画コンテンツID列、発話ID列、発話テキスト列、開始時点列、表示時間列及び発話テキスト種類列を含む。動画コンテンツID列は、発話テキストに対応する動画コンテンツを特定するための動画コンテンツIDを記憶している。発話ID列は、各発話テキストを識別するために、一意に特定される発話テキストのIDを記憶している。
The spoken
発話テキスト列は、動画コンテンツにおける話者の発話内容を記憶している。発話テキストは、話者の発話をテキスト化した情報に基づいて、発話の意図(目的)または主旨を表すために編集者により編集されたテキストである。なお、発話のすべての内容をテキスト化して発話テキストとして提供しても良い。開始時点列は、発話テキストの表示のタイミングを記憶している。表示時間列は、発話テキストの表示時間を記憶している。発話テキスト種類列は、発話テキストの種類を記憶している。発話テキストの種類は、複数の発話テキストから特定された代表的な発話テキストである「代表」、及び、代表的な発話テキスト以外の発話テキストである「一般」を含む。 The utterance text string stores the utterance content of the speaker in the video content. The utterance text is text edited by an editor to express the intention (objective) or gist of the utterance based on the textual information of the utterance of the speaker. It should be noted that all the contents of the utterance may be converted into text and provided as the utterance text. The starting time column stores the timing of displaying the spoken text. The display time column stores the display time of the spoken text. The spoken text type column stores the type of spoken text. The types of speech texts include “representative”, which is representative speech texts identified from a plurality of speech texts, and “general”, which are speech texts other than the representative speech texts.
図4は、ユーザDB173及び履歴DB174のレコードレイアウトの一例を示す説明図である。
ユーザDB173は、ユーザID列、氏名列、会員種類列及び視聴開始日列を含む。ユーザID列は、各ユーザを識別するために、一意に特定されるユーザのIDを記憶している。氏名列は、ユーザの氏名を記憶している。会員種類列は、ユーザの会員種類を記憶している。会員種類は、例えば「法人企業」及び「一般」を含む。なお、会員種類は実際のニーズに応じて設けられても良い。視聴開始日列は、ユーザが動画コンテンツを視聴し始めた日付を記憶している。
FIG. 4 is an explanatory diagram showing an example of the record layout of the
The
履歴DB174は、履歴ID列、動画コンテンツID列、ユーザID列及び視聴日時列を含む。履歴ID列は、各履歴データを識別するために、一意に特定される履歴データのIDを記憶している。動画コンテンツID列は、動画コンテンツを特定する動画コンテンツIDを記憶している。ユーザID列は、ユーザを特定するユーザIDを記憶している。視聴日時列は、ユーザが動画コンテンツを視聴した日時を記憶している。
The
図5は、ノートDB175及びカテゴリDB176のレコードレイアウトの一例を示す説明図である。
ノートDB175は、ユーザID列、動画コンテンツID列、発話ID列及び登録日時列を含む。ユーザID列は、ユーザを特定するユーザIDを記憶している。動画コンテンツID列は、動画コンテンツを特定する動画コンテンツIDを記憶している。発話ID列は、発話テキストを特定する発話IDを記憶している。登録日時列は、発話テキストを登録した日時を記憶している。
FIG. 5 is an explanatory diagram showing an example of the record layout of the
The
カテゴリDB176は、カテゴリID列、カテゴリ名称列、背景色列及びアイコン列を含む。カテゴリID列は、各カテゴリを識別するために、一意に特定されるカテゴリのIDを記憶している。カテゴリ名称列は、カテゴリの名称を記憶している。背景色列は、カテゴリ毎に分類して色分け表示された表示領域の背景色を記憶している。アイコン列は、各カテゴリを示すアイコンを記憶している。
The
カテゴリは、動画コンテンツに応じて設定された任意の種類である。カテゴリは、例えば「おもしろい人生」、「魅せる人生」または「お医者さんに聞いてみる」等のある物事または話題を中心として、その周辺または関連する物事を扱うために設定された種類であっても良い。 A category is an arbitrary type set according to video content. A category is a type that is set to deal with things around or related to a certain thing or topic, such as ``interesting life'', ``fascinating life'', or ``ask a doctor''. Also good.
図6は、端末2の構成例を示すブロック図である。端末2は、制御部21、記憶部22、通信部23、入力部24、表示部25及びスピーカ26を含む。各構成はバスBで接続されている。
FIG. 6 is a block diagram showing a configuration example of the
制御部21はCPU、MPU等の演算処理装置を含み、記憶部22に記憶された制御プログラム2Pを読み出して実行することにより、端末2に係る種々の情報処理、制御処理等を行う。なお、図6では制御部21を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。記憶部22はRAM、ROM等のメモリ素子を含み、制御部21が処理を実行するために必要な制御プログラム2P又はデータ等を記憶している。また、記憶部22は、制御部21が演算処理を実行するために必要なデータ等を一時的に記憶する。
The
通信部23は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、サーバ1と情報の送受信を行う。入力部24は、キーボード、マウスまたは表示部25と一体化したタッチパネルでも良い。表示部25は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部21の指示に従い各種情報を表示する。スピーカ26は、電気信号を音に変換する装置である。
The
続いて、動画コンテンツの再生に合わせて発話テキストを表示する処理を説明する。なお、本実施形態では、動画コンテンツのカテゴリが、予めサーバ1のカテゴリDB176に記憶される。また、動画コンテンツ及び該動画コンテンツにおける発話テキストは、予めサーバ1の動画コンテンツDB171及び発話テキストDB172に記憶される。
Next, the process of displaying the spoken text in accordance with the reproduction of the video content will be described. Note that, in the present embodiment, categories of moving image content are stored in the
発話テキストについては、編集者の手入力により取得されても良く、または動画コンテンツの音声データから変換して取得されても良い。音声データの変換処理を利用した場合、サーバ1は動画コンテンツから音声データを抽出し、抽出した音声データを発話テキストに変換するための音声認識処理を行う。音声認識処理は、例えばSTT(Speech To Text)技術が利用されて良い。なお、ディープラーニング、またはその他のニューラルネットワークで実現された学習モデルによって音声データは発話テキストに変換されて良い。サーバ1は、取得した発話テキストを動画コンテンツIDに対応付けて発話テキストDB172に記憶する。
The spoken text may be obtained by manual input by an editor, or may be obtained by converting from audio data of video content. When the conversion processing of voice data is used, the
そして、端末2は、動画コンテンツ及び該動画コンテンツにおける発話テキストをサーバ1から取得する。具体的には、端末2は、動画コンテンツ及び発話テキストの取得リクエストをサーバ1に送信する。サーバ1は、端末2から送信された取得リクエストに応じて、複数の動画コンテンツに関する情報を動画コンテンツDB171から取得する。動画コンテンツに関する情報は、動画コンテンツID、動画コンテンツのカテゴリ、タイトル、サムネイル画像及び公開日等を含む。
Then, the
サーバ1は、取得した各動画コンテンツIDに基づいて、各動画コンテンツにおける発話テキストに関する情報を発話テキストDB172から取得する。発話テキストに関する情報は、発話ID、発話テキスト、発話テキストの表示の開始時点及び表示時間等を含む。サーバ1は、取得した動画コンテンツに関する情報、及び発話テキストに関する情報を端末2に送信する。端末2は、サーバ1から送信された動画コンテンツに関する情報、及び発話テキストに関する情報を受信する。
The
端末2は、それぞれの動画コンテンツにおける複数の発話テキストから、代表的な発話テキストを特定する。代表的な発話テキストは、例えば予め編集者により設定される。例えば、編集者が、発話の内容から発話の意図または主旨等を表すことが可能な発話テキストを選定した場合、端末2は、編集者により選定された発話テキストの入力を受け付ける。端末2は、受け付けた代表的な発話テキストの発話IDに対応付けて、「代表」である発話テキストの種類を発話テキストDB172に記憶する。このように、代表的な発話テキストが予め発話テキストDB172に記憶された場合、端末2は、動画コンテンツにおける複数の発話テキストから、発話テキストの種類が「代表」である発話テキストを発話テキストDB172から抽出する。端末2は、抽出した発話テキストを代表的な発話テキストとして特定する。
Terminal 2 identifies a representative spoken text from a plurality of spoken texts in each video content. A typical spoken text is set in advance by an editor, for example. For example, when the editor selects an utterance text that can express the intention or gist of the utterance from the contents of the utterance, the
なお、上述した代表的な発話テキストの特定処理に限るものではない。例えばサーバ1は、発話テキストに含まれる動画コンテンツのタイトルまたはタイトルの関連語に基づいて、発話テキストをクラスタリングする。サーバ1は、各クラスタに含まれる発話テキスト数が所定数(例えば、10)以上のクラスタから、ランダムに所定数(例えば、2)の発話テキストを取得しても良い。これにより、多様性を持たせ、且つ、話題になり易い発話テキストを選択することができる。
It should be noted that the process is not limited to the above-described typical speech text specifying process. For example, the
端末2は、動画コンテンツのカテゴリ毎に、動画コンテンツのタイトル及びサムネイル画像に対応付けて代表的な発話テキストを画面に表示する。端末2は、動画コンテンツの再生操作を受け付けた場合、動画コンテンツIDに基づいて、該動画コンテンツのデータをサーバ1の動画コンテンツDB171から取得する。端末2は、取得した動画コンテンツのデータを再生する。端末2は、動画コンテンツの再生に合わせて、段階的に該動画コンテンツにおける発話テキストを画面に表示する。具体的には、端末2は動画コンテンツの再生中に、各発話テキストの表示の開始時点に基づいて各発話テキストを画面に表示する。
The
端末2は、発話テキストに対する登録操作を受け付けた場合、ユーザID及び動画コンテンツIDに対応付けて該発話テキストの発話IDをサーバ1に送信する。サーバ1は、端末2から送信されたユーザID、動画コンテンツID及び発話IDを受信する。サーバ1は、受信したユーザID及び動画コンテンツIDに対応付けて、発話ID及び登録日時を一つのレコードとしてノートDB175に登録(記憶)する。
When the
図7は、動画コンテンツの一覧画面の一例を示す説明図である。該画面は、本日公開表示欄11a、カテゴリ表示欄11b及びカテゴリ個別表示欄11cを含む。
FIG. 7 is an explanatory diagram showing an example of a video content list screen. The screen includes a today's disclosure display field 11a, a
本日公開表示欄11aは、本日公開された動画コンテンツを表示する表示欄である。本日公開表示欄11aには、本日公開された複数の動画コンテンツ、またはおすすめの複数の動画コンテンツ等が第2方向(例えば、横方向)に並べて表示される。なお、本日公開された動画コンテンツ及びおすすめの動画コンテンツは、同時に並んで表示されても良い。なお、第2方向に並べられた複数の動画コンテンツが本日公開表示欄11aに収まりきらない場合、複数の動画コンテンツを第2方向にスクロール可能に表示することができる。 The today's release display column 11a is a display column for displaying the video content released today. In today's release display field 11a, a plurality of video contents released today, a plurality of recommended video contents, or the like are displayed side by side in the second direction (for example, horizontal direction). Note that the video content released today and the recommended video content may be displayed side by side at the same time. If the plurality of moving image contents arranged in the second direction cannot fit in the today's disclosure display field 11a, the plurality of moving image contents can be scrollably displayed in the second direction.
本日公開表示欄11aは、動画表示欄11a1、再生ボタン11a2、タイトル表示欄11a3、公開日表示欄11a4及び詳細ボタン11a5を含む。動画表示欄11a1は、動画コンテンツのサムネイル画像を表示する表示欄である。再生ボタン11a2は、動画コンテンツの再生のボタンである。タイトル表示欄11a3は、動画コンテンツのタイトルを表示する表示欄である。公開日表示欄11a4は、動画コンテンツの公開日を表示する表示欄である。詳細ボタン11a5は、後述する動画コンテンツの詳細画面(図8)に遷移するボタンである。 The today's release display field 11a includes a moving image display field 11a1, a play button 11a2, a title display field 11a3, a release date display field 11a4, and a details button 11a5. The moving image display column 11a1 is a display column for displaying thumbnail images of moving image content. The play button 11a2 is a button for playing video content. The title display field 11a3 is a display field for displaying the title of the video content. The release date display column 11a4 is a display column for displaying the release date of the video content. The detail button 11a5 is a button for transitioning to a detail screen (FIG. 8) of moving image content, which will be described later.
カテゴリ表示欄11bは、動画コンテンツのカテゴリ(島)を表示する表示欄である。なお、横及び縦方向に隣接させて列状に並べられた複数のカテゴリが、カテゴリ表示欄11bに収まりきらない場合、複数のカテゴリを横スクロール及び縦スクロール可能に表示することができる。カテゴリ表示欄11bは、カテゴリ一覧ボタン11b1及びカテゴリ名称表示欄11b2を含む。カテゴリ一覧ボタン11b1は、後述するカテゴリの一覧画面(図9)に遷移するボタンである。カテゴリ名称表示欄11b2は、カテゴリの名称を表示する表示欄である。
The
端末2は、カテゴリID、カテゴリの名称及び背景色を含むカテゴリに関する情報をサーバ1のカテゴリDB176から取得する。端末2は、取得したカテゴリに関する情報をカテゴリ表示欄11bに表示する。具体的には、端末2は、取得した各カテゴリの名称を該当するカテゴリ名称表示欄11b2に表示する。端末2は、取得した各カテゴリの背景色を該当するカテゴリ名称表示欄11b2の背景色として設定する。なお、カテゴリの表示に関しては、上述した色分け表示に限定せず、各カテゴリを示すアイコンを用いても良い。端末2は、カテゴリ一覧ボタン11b1のタッチ操作を受け付けた場合、カテゴリID及びカテゴリの名称をカテゴリの一覧画面(図9)に受け渡し、カテゴリの一覧画面に遷移する。
The
カテゴリ個別表示欄11cは、カテゴリに属する複数の動画コンテンツを表示する表示欄である。カテゴリ個別表示欄11cは、カテゴリの数に応じて設けられ、第1方向(例えば、縦方向)に並んで表示される。なお、第1方向に並べられた複数のカテゴリ個別表示欄11cが画面に収まりきらない場合、複数のカテゴリ個別表示欄11cを第1方向にスクロール可能に表示することができる。
The category
また、各カテゴリ個別表示欄11cには、該カテゴリに属する複数の動画コンテンツが第2方向(例えば、横方向)に並べて表示される。なお、第2方向に並べられた複数の動画コンテンツが該当するカテゴリ個別表示欄11cに収まりきらない場合、複数の動画コンテンツを第2方向にスクロール可能に表示することができる。
Also, in each category
カテゴリ個別表示欄11cは、動画表示欄11a1、タイトル表示欄11a3、カテゴリ名称表示欄11c1、発話テキスト表示欄11c2、カテゴリ詳細ボタン11c3を含む。動画表示欄11a1及びタイトル表示欄11a3については、上述した内容と同様であるため、説明を省略する。カテゴリ名称表示欄11c1は、カテゴリの名称を表示する表示欄である。発話テキスト表示欄11c2は、動画コンテンツにおける発話テキストを表示する表示欄である。カテゴリ詳細ボタン11c3は、後述するカテゴリの詳細画面(図10)に遷移するボタンである。
The individual
端末2は、動画コンテンツに関する情報(動画コンテンツID、動画コンテンツのカテゴリ、タイトル、サムネイル画像及び公開日等)、及び該動画コンテンツにおける発話テキストに関する情報(発話ID及び発話テキスト等)をサーバ1の動画コンテンツDB171及び発話テキストDB172から取得する。
The
端末2は、取得した動画コンテンツの公開日に基づいて、本日公開された動画コンテンツを抽出する。端末2は、抽出した本日公開された動画コンテンツを本日公開表示欄11aに表示する。具体的には、端末2は、抽出した各動画コンテンツのサムネイル画像を該当動画表示欄11a1に表示し、各動画コンテンツのタイトルを該当するタイトル表示欄11a3に表示し、各動画コンテンツの公開日を該当する公開日表示欄11a4に表示する。
The
端末2は、再生ボタン11a2のタッチ(クリック)操作を受け付けた場合、動画コンテンツIDに基づいて、該動画コンテンツのデータをサーバ1の動画コンテンツDB171から取得する。端末2は、取得した動画コンテンツのデータを再生する。端末2は、詳細ボタン11a5のタッチ操作を受け付けた場合、動画コンテンツIDを動画コンテンツの詳細画面(図8)に受け渡し、動画コンテンツの詳細画面に遷移する。
When the
端末2は、サーバ1から取得された動画コンテンツにおける発話テキストから、代表的な発話テキストを特定する。端末2は、カテゴリ毎に、動画コンテンツに対応付けて代表的な発話テキストをカテゴリ個別表示欄11cに表示する。具体的には、端末2は、動画コンテンツのサムネイル画像を動画表示欄11a1に表示し、動画コンテンツのタイトルをタイトル表示欄11a3に表示し、動画コンテンツにおける代表的な発話テキストを発話テキスト表示欄11c2に表示する。
The
端末2は、カテゴリ詳細ボタン11c3のタッチ操作を受け付けた場合、カテゴリID、及び該カテゴリに属する各動画コンテンツIDをカテゴリの詳細画面(図10)に受け渡し、カテゴリの詳細画面に遷移する。
When the
図8は、動画コンテンツの詳細画面の一例を示す説明図である。なお、図8A、図8B及び図8Cは、ユーザの操作に応じて変化させた詳細画面の一例を示す説明図である。図8Aは、発話テキストの展開の際の詳細画面である。図8Bは、発話テキストの折りたたみの際の詳細画面である。図8Cは、動画コンテンツの全画面表示の際の詳細画面である。 FIG. 8 is an explanatory diagram showing an example of a detailed screen of moving image content. Note that FIGS. 8A, 8B, and 8C are explanatory diagrams showing an example of the detailed screen changed according to the user's operation. FIG. 8A is a detailed screen when expanding the spoken text. FIG. 8B is a detailed screen when collapsing the spoken text. FIG. 8C is a detailed screen when the moving image content is displayed on the full screen.
該画面は、動画表示欄12a、再生ボタン12b、早戻しボタン12c、早送りボタン12d、発話テキスト表示欄12e、折りたたみボタン12f、フルスクリーン表示ボタン12g、発話再生ボタン12h、登録ボタン12i、シェアボタン12j及び発話開始時点表示欄12kを含む。
The screen includes a moving
動画表示欄12aは、動画コンテンツを表示する表示欄である。再生ボタン12bは、動画コンテンツの再生/一時停止のボタンである。早戻しボタン12cは、動画コンテンツに対して早戻しを実行するボタンである。早送りボタン12dは、動画コンテンツに対して早送りを実行するボタンである。発話テキスト表示欄12eは、動画コンテンツにおける発話テキストを表示する表示欄である。
The moving
折りたたみボタン12fは、発話テキストの展開または折りたたみを行うボタンである。フルスクリーン表示ボタン12gは、動画コンテンツを全画面で表示するボタンである。発話再生ボタン12hは、発話テキストの表示の開始時点(タイミング)を動画コンテンツの再生開始位置として、該動画コンテンツを再生するボタンである。登録ボタン12iは、発話テキストを登録するボタンである。シェアボタン12jは、動画コンテンツに対応付けて発話テキストをシェアするボタンである。発話開始時点表示欄12kは、発話テキストの表示の開始時点を表示する表示欄である。
The
端末2は、動画コンテンツの一覧画面(図7)から受け渡された動画コンテンツIDを受け取る。端末2は、受け取った動画コンテンツIDに基づいて、該動画コンテンツに関する情報(動画コンテンツのデータ及びサムネイル画像等)、及び該動画コンテンツにおける発話テキストをサーバ1の動画コンテンツDB171及び発話テキストDB172から取得する。
The
端末2は、取得した複数の動画コンテンツのサムネイル画像を動画表示欄12aに表示する。端末2は、取得した発話テキストから代表的な発話テキストを特定し、特定した代表的な発話テキストを発話テキスト表示欄12eに表示する。なお、代表的な発話テキストの特定処理に関しては、上述した処理と同様であるため、説明を省略する。なお、代表的な発話テキストに限定せず、例えば端末2は、発話テキストの表示の開始時点の新しい順に一番目の発話テキストを表示しても良い。
The
端末2は、再生ボタン12bのタッチ操作を受け付けた場合、動画コンテンツのデータを再生する。端末2は動画コンテンツの再生中に、該動画コンテンツにおける各発話テキストの表示の開始時点に基づいて、各発話テキストを発話テキスト表示欄12eに切り替えて表示する。なお、動画コンテンツの再生中に、端末2は再生ボタン12bのタッチ操作を再度受け付けた場合、該動画コンテンツのデータの再生を一時停止する。端末2は、早戻しボタン12cのタッチ操作を受け付けた場合、所定の秒数(例えば、10秒)で動画コンテンツに対して早戻しを実行する。端末2は、早送りボタン12dのタッチ操作を受け付けた場合、所定の秒数(例えば、10秒)で動画コンテンツに対して早送りを実行する。
The
端末2は、折りたたみボタン12fのタッチ操作を受け付けた場合、発話テキストの展開を行い、すべての発話テキストを発話テキスト表示欄12eに表示する(図8B)。なお、縦方向に並べられた複数の発話テキストが発話テキスト表示欄12eに収まりきらない場合、複数の発話テキストを縦方向にスクロール可能に表示することができる。また、端末2は動画コンテンツの再生中に、該動画コンテンツの再生タイミングに合わせて表示している発話テキストをハイライト(例えば、太線、斜線またはカラー)で表示する。端末2は、「展開中」となった発話テキストに対し、折りたたみボタン12fのタッチ操作を再度受け付けた場合、発話テキストの折りたたみを行う(図8A)。
When receiving the touch operation of the
「折りたたみ」状態で発話テキストが表示された場合、端末2は、各発話テキストに対して登録ボタン12i及びシェアボタン12jを生成して画面に表示する。「展開中」状態で発話テキストが表示された場合、端末2は、各発話テキストに対して発話再生ボタン12h、登録ボタン12i、シェアボタン12j及び発話開始時点表示欄12kを生成して画面に表示する。端末2は、各発話テキストの表示の開始時点を該当する発話開始時点表示欄12kに表示する。
When the speech texts are displayed in the "folded" state, the
端末2は、発話再生ボタン12hのタッチ操作を受け付けた場合、発話テキストの表示タイミング(開始時点)に対応する動画コンテンツの再生タイミングにて再生する。例えば発話テキストの表示の開始時点が「02:34」である場合、端末2は、「02:34」となった動画コンテンツの再生タイミングにて該動画コンテンツを再生する。
When the
端末2は、動画コンテンツの再生中に、登録ボタン12iのタッチ操作を受け付けた場合、ユーザID及び動画コンテンツIDに対応付けて発話テキストの発話IDをサーバ1に送信する。サーバ1は、端末2から送信されたユーザID、動画コンテンツID及び発話IDを受信する。サーバ1は、受信したユーザID及び動画コンテンツIDに対応付けて、発話ID及び登録日時を一つのレコードとしてノートDB175に登録する。端末2は、登録された発話テキストに対し、該当する登録ボタン12iを登録済み状態に変更する。例えば端末2は、登録ボタン12iの背景色を赤に変更する。
When the
なお、端末2は、登録済みの発話テキストに対し、登録ボタン12iのタッチ操作を再度受け付けた場合、発話テキストの登録解除処理を行う。具体的には、端末2は、ユーザID、動画コンテンツID及び該発話テキストの発話IDをサーバ1に送信する。サーバ1は、端末2から送信されたユーザID、動画コンテンツID及び該発話テキストの発話IDに基づいて、該当する発話テキストのレコードをノートDB175から削除する。端末2は、該当する登録ボタン12iを登録解除済み状態に変更する。例えば端末2は、登録ボタン12iの背景色を灰色に変更する。
It should be noted that, when the
端末2は、シェアボタン12jのタッチ操作を受け付けた場合、該当する発話テキストを動画コンテンツに対応付けて共有する。共有先は、例えば、SNS(Social Networking Service)のサイトまたは電子掲示板等であっても良い。SNSのサイトは、例えばTwitter(登録商標)、Facebook(登録商標)、またはLINE(登録商標)等のサイトである。電子掲示板は、ネットワークを使用した環境において、記事を書き込んだり、閲覧したり、コメントを付けることが可能なサイトである。
When receiving the touch operation of the
例えば、共有対象となる動画コンテンツのサムネイル画像及び発話テキストそのものを指定された共有先に共有しても良く、または該動画コンテンツのサムネイル画像及び発話テキストを記述したURL(Uniform Resource Locator)を共有先に共有しても良い。 For example, the thumbnail image of the video content to be shared and the spoken text itself may be shared with a specified sharing destination, or the URL (Uniform Resource Locator) describing the thumbnail image and spoken text of the video content may be sent to the sharing destination. may be shared to
端末2は、フルスクリーン表示ボタン12gのタッチ操作を受け付けた場合、該当する動画コンテンツを全画面で表示し(図8C)、該動画コンテンツにおける発話テキストを非表示に切り替える。端末2は、全画面で表示されている動画コンテンツに対し、フルスクリーン表示ボタン12gのタッチ操作を再度受け付けた場合、該当する動画コンテンツの全画面表示を解除し、該動画コンテンツにおける発話テキストを表示に切り替える。
When accepting the touch operation of the full
図9は、カテゴリの一覧画面の一例を示す説明図である。該画面は、カテゴリリスト13aを含む。カテゴリリスト13aは、カテゴリの一覧を表示するリストである。カテゴリリスト13aは、カテゴリアイコン13a1、カテゴリ名称表示欄13a2及びカテゴリ詳細ボタン13a3を含む。カテゴリアイコン13a1は、カテゴリを示すアイコンである。カテゴリ名称表示欄13a2は、カテゴリの名称を表示する表示欄である。カテゴリ詳細ボタン13a3は、後述するカテゴリの詳細画面(図10)に遷移するボタンである。
FIG. 9 is an explanatory diagram showing an example of a category list screen. The screen includes a
端末2は、カテゴリに関する情報をサーバ1のカテゴリDB176から取得する。カテゴリに関する情報は、カテゴリID、カテゴリの名称及びカテゴリを示すアイコンを含む。端末2は、取得したカテゴリに関する情報をカテゴリリスト13aに表示する。具体的には、端末2は、各カテゴリを示すアイコンを該当するカテゴリアイコン13a1に表示し、各カテゴリの名称をカテゴリ名称表示欄13a2に表示する。
The
端末2は、カテゴリ詳細ボタン13a3のタッチ操作を受け付けた場合、該当するカテゴリのカテゴリIDをカテゴリの詳細画面(図10)に受け渡し、カテゴリの詳細画面に遷移する。
When the
図10は、カテゴリの詳細画面の一例を示す説明図である。該画面は、カテゴリ名称表示欄14a及び動画表示欄14bを含む。カテゴリ名称表示欄14aは、カテゴリの名称を表示する表示欄である。動画表示欄14bは、動画コンテンツに関する情報を表示する表示欄である。動画表示欄14bは、タイトル表示欄14b1、サムネイル画像表示欄14b2、発話テキスト表示欄14b3及び詳細ボタン14b4を含む。
FIG. 10 is an explanatory diagram showing an example of a category detail screen. The screen includes a category
タイトル表示欄14b1は、動画コンテンツのタイトルを表示する表示欄である。サムネイル画像表示欄14b2は、動画コンテンツのサムネイル画像を表示する表示欄である。発話テキスト表示欄14b3は、動画コンテンツにおける発話テキストを表示する表示欄である。詳細ボタン14b4は、動画コンテンツの詳細画面(図8)に遷移するボタンである。 The title display column 14b1 is a display column for displaying the title of moving image content. The thumbnail image display column 14b2 is a display column for displaying thumbnail images of moving image content. The spoken text display field 14b3 is a display field for displaying the spoken text in the video content. The detail button 14b4 is a button for transitioning to a detailed screen (FIG. 8) of moving image content.
端末2は、遷移元の画面(例えば、カテゴリの一覧画面)から受け渡されたカテゴリIDに基づいて、カテゴリの名称及び背景色をサーバ1のカテゴリDB176から取得する。端末2はカテゴリIDに基づいて、該カテゴリに属するすべての動画コンテンツに関する情報をサーバ1の動画コンテンツDB171から取得する。動画コンテンツに関する情報は、動画コンテンツID、動画コンテンツのデータ、タイトル及びサムネイル画像等を含む。端末2は、動画コンテンツIDに基づいて、該動画コンテンツにおける複数の発話テキストをサーバ1の発話テキストDB172から取得する。
The
端末2は、取得したカテゴリの名称をカテゴリ名称表示欄14aに表示し、カテゴリの背景色をカテゴリ名称表示欄14aの背景色として設定する。端末2は、取得した複数の動画コンテンツを、縦方向にそれぞれの動画表示欄14bに並べて表示する。端末2は、各動画表示欄14bに表示されている動画コンテンツに対し、該動画コンテンツのタイトルをタイトル表示欄14b1に表示し、該動画コンテンツのサムネイル画像をサムネイル画像表示欄14b2に表示する。
The
端末2は、各動画表示欄14bに表示されている動画コンテンツに対応付けて、該動画コンテンツにおける複数の発話テキストを、例えば発話IDの昇順で横方向に発話テキスト表示欄14b3に並べて表示する。なお、横方向に並べられた複数の発話テキストが動画表示欄14bに収まりきらない場合、複数の発話テキストを横スクロール可能に表示することができる。
The
端末2は、発話テキスト表示欄14b3のスワイプ操作を受け付けた場合、複数の発話テキストを切り替えて表示する。図示のように、発話テキスト1及び発話テキスト2等を含む複数の発話テキストが動画コンテンツAに対応付けられ、発話テキスト1は画面に表示されている。端末2は、発話テキスト表示欄14b3の左方向へのスワイプ操作を受け付けた場合、発話テキスト1を次の発話テキスト2に切り替えて表示する。端末2は発話テキスト2の表示中に、発話テキスト表示欄14b3の左方向へのスワイプ操作を再度受け付けた場合、発話テキスト2を次の発話テキスト3(図示なし)に切り替えて表示する。また、端末2は発話テキスト2の表示中に、発話テキスト表示欄14b3の右方向へのスワイプ操作を受け付けた場合、発話テキスト2を前の発話テキスト1に切り替えて表示する。このように、ユーザのスワイプ操作により、発話テキストを逐次的に切り替えて表示することができる。なお、端末2は、複数の発話テキストを所定の時間間隔(例えば、1秒)で自動的に切り替えて表示しても良い。端末2は、詳細ボタン14b4のタッチ操作を受け付けた場合、動画コンテンツIDを動画コンテンツの詳細画面(図8)に受け渡し、動画コンテンツの詳細画面に遷移する。
When receiving a swipe operation on the spoken text display field 14b3, the
図11は、動画コンテンツにおける発話テキストを表示する際の処理手順を示すフローチャートである。サーバ1の制御部11は、動画コンテンツに関する情報及び発話テキストに関する情報を取得する(ステップS101)。具体的には、制御部11は、動画コンテンツID、動画コンテンツのカテゴリ、タイトル、サムネイル画像及び公開日等を含む動画コンテンツに関する情報を大容量記憶部17の動画コンテンツDB171から取得する。制御部11は、取得した各動画コンテンツIDに基づいて、各動画コンテンツにおける発話テキストに関する情報を大容量記憶部17の発話テキストDB172から取得する。発話テキストに関する情報は、発話ID、発話テキスト、発話テキストの表示の開始時点及び表示時間等を含む。
FIG. 11 is a flow chart showing a processing procedure for displaying spoken text in video content. The
制御部11は、取得した動画コンテンツに関する情報及び発話テキストに関する情報を通信部13により端末2に送信する(ステップS102)。端末2の制御部21は、サーバ1から送信された動画コンテンツに関する情報及び発話テキストに関する情報を通信部23により受信する(ステップS201)。制御部21は、各動画コンテンツにおける複数の発話テキストから、代表的な発話テキストを特定する(ステップS202)。
The
制御部21は、動画コンテンツのカテゴリ毎に、動画コンテンツのタイトル及びサムネイル画像に対応付けて代表的な発話テキストを表示部25により表示する(ステップS203)。制御部21は、動画コンテンツの再生操作を入力部24により受け付けた場合(ステップS204)、動画コンテンツIDを通信部23によりサーバ1に送信する(ステップS205)。
The
サーバ1の制御部11は、端末2から送信された動画コンテンツIDを通信部13により受信する(ステップS103)。制御部11は、受信した動画コンテンツIDに基づいて、該動画コンテンツのデータを大容量記憶部17の動画コンテンツDB171から取得する(ステップS104)。制御部11は、取得した動画コンテンツのデータを通信部13により端末2に送信する(ステップS105)。
The
端末2の制御部21は、サーバ1から送信された動画コンテンツのデータを通信部23により受信する(ステップS206)。制御部21は、スピーカ26を介して、受信した動画コンテンツのデータを再生する(ステップS207)。制御部21は、動画コンテンツのデータの再生に合わせて、段階的に該動画コンテンツにおける発話テキストを表示部25により表示し(ステップS208)、処理を終了する。
The
図12は、発話テキストの登録または登録解除を行う際の処理手順を示すフローチャートである。端末2の制御部21は、未登録の発話テキストに対する登録操作を入力部24により受け付けた場合(ステップS211)、ユーザID及び動画コンテンツIDに対応付けて発話テキストの発話IDを通信部23によりサーバ1に送信する(ステップS212)。
FIG. 12 is a flow chart showing a processing procedure for registering or canceling the registration of an utterance text. When the
サーバ1の制御部11は、端末2から送信されたユーザID、動画コンテンツID及び発話IDを通信部13により受信する(ステップS111)。制御部11は、受信したユーザID及び動画コンテンツIDに対応付けて、発話ID及び登録日時を一つのレコードとして大容量記憶部17のノートDB175に登録する(ステップS112)。
The
端末2の制御部21は、登録済みの発話テキストに対する登録解除操作を入力部24により受け付けた場合(ステップS213)、ユーザID及び動画コンテンツIDに対応付けて発話テキストの発話IDを通信部23によりサーバ1に送信する(ステップS214)。
When the
サーバ1の制御部11は、端末2から送信されたユーザID、動画コンテンツID及び該発話テキストの発話IDを通信部13により受信する(ステップS113)。制御部11は、受信したユーザID、動画コンテンツID及び発話IDに基づいて、該当する発話テキストのレコードをノートDB175から削除する(ステップS114)。
The
本実施形態によると、動画コンテンツの再生に合わせて該動画コンテンツにおける発話テキストを表示することが可能となる。 According to this embodiment, it is possible to display the spoken text in the moving image content in synchronization with the reproduction of the moving image content.
本実施形態によると、動画コンテンツに基づいて設定されたカテゴリ毎に、動画コンテンツ及び該動画コンテンツにおける発話テキストを表示することにより、ユーザの興味またはニーズに合わせる動画コンテンツを探しやすくなるため、ユーザが動画コンテンツを視聴するモチベーションを喚起することが可能となる。 According to this embodiment, by displaying the video content and the spoken text of the video content for each category set based on the video content, it becomes easier for the user to search for the video content that matches the interest or needs of the user. It is possible to arouse motivation to watch video content.
本実施形態によると、動画コンテンツにおける発話テキストを表示することにより、ユーザが該動画コンテンツを視聴しなくても、動画コンテンツの内容を大まかに把握することが可能となる。 According to this embodiment, by displaying the spoken text in the video content, it is possible for the user to roughly understand the content of the video content without viewing the video content.
本実施形態によると、動画コンテンツにおける発話テキストに対する登録または登録解除を行うことが可能となる。 According to this embodiment, it is possible to register or cancel the registration of the spoken text in the video content.
(実施形態2)
実施形態2は、登録済みの発話テキストを一覧で表示する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
(Embodiment 2)
動画コンテンツにおける発話テキストが登録された場合、登録済みの発話テキストを一覧で表示することができる。具体的には、端末2はユーザIDに基づいて、視聴された動画コンテンツの動画コンテンツID、該動画コンテンツにおける登録済みの発話テキストの発話ID及び登録日時をサーバ1のノートDB175から取得する。端末2は、取得した登録済みの発話テキストの発話IDに基づいて、発話テキストの表示の開始時点をサーバ1の発話テキストDB172から取得する。端末2は、ユーザが視聴した動画コンテンツ別、または、発話テキストの登録順に、取得した登録済みの発話テキスト及び該発話テキストの表示の開始時点を一覧で表示する。
When the spoken texts in the video content are registered, the registered spoken texts can be displayed in a list. Specifically, based on the user ID, the
動画コンテンツ別に登録済みの発話テキストが表示された場合、端末2は、視聴された各動画コンテンツの動画コンテンツIDに基づいて、各動画コンテンツに関する情報(サムネイル画像及びタイトル等)をサーバ1の動画コンテンツDB171から取得する。端末2は、動画コンテンツ別に動画コンテンツのサムネイル画像及びタイトルに対応付けて、ノートDB175から取得された動画コンテンツにおける登録済みの発話テキストを画面に表示する。
When registered utterance texts are displayed for each moving image content, the
登録順に登録済みの発話テキストが表示された場合、端末2は、ノートDB175から取得された発話テキストの登録日時に基づいて、昇順または降順で発話テキストをソートする。端末2は、ソートした発話テキストを画面に表示する。
When the registered speech texts are displayed in the order of registration, the
図13は、動画コンテンツ別の発話テキストの一覧画面の一例を示す説明図である。該画面は、動画コンテンツ別タブ15a、登録順タブ15b及び動画情報表示欄15cを含む。動画コンテンツ別タブ15aは、動画コンテンツ別に登録済みの発話テキストの一覧を示すためのタブ(第1タブ)である。登録順タブ15bは、発話テキストの登録順に登録済みの発話テキストの一覧を示すためのタブ(第2タブ)である。
FIG. 13 is an explanatory diagram showing an example of a list screen of spoken texts by moving image content. The screen includes a moving
動画情報表示欄15cは、サムネイル画像表示欄15c1、タイトル表示欄15c2、発話テキスト表示欄15c3、登録ボタン15c4及び全部ボタン15c5を含む。サムネイル画像表示欄15c1は、動画コンテンツのサムネイル画像を表示する表示欄である。タイトル表示欄15c2は、動画コンテンツのタイトルを表示する表示欄である。発話テキスト表示欄15c3は、発話テキスト及び該発話テキストの表示の開始時点を表示する表示欄である。登録ボタン15c4は、発話テキストの登録または登録解除を行うためのボタンである。全部ボタン15c5は、動画コンテンツにおけるすべての発話テキストの表示画面(図14)に遷移するためのボタンである。
The moving image
端末2は、ユーザIDに基づいて、視聴された動画コンテンツの動画コンテンツID、該動画コンテンツにおける登録済みの発話テキスト及び登録日時をサーバ1のノートDB175から取得する。端末2は、取得した登録済みの発話テキストの発話IDに基づいて、発話テキストの表示の開始時点をサーバ1の発話テキストDB172から取得する。端末2は、視聴された各動画コンテンツの動画コンテンツIDに基づいて、各動画コンテンツに関する情報(サムネイル画像及びタイトル等)をサーバ1の動画コンテンツDB171から取得する。
Based on the user ID, the
端末2は、動画コンテンツ別に、動画コンテンツと、該動画コンテンツにおける発話テキストとを対応付けて、縦方向に各動画情報表示欄15cに並べて表示する。なお、縦方向に並べられた複数の動画情報表示欄15cが画面に収まりきらない場合、複数の動画情報表示欄15cを縦方向にスクロール可能に表示することができる。
The terminal 2 associates the moving image content with the spoken text in the moving image content for each moving image content, and displays them side by side in the vertical direction in each moving image
具体的には、端末2は、各動画コンテンツのサムネイル画像を該当するサムネイル画像表示欄15c1に表示し、各動画コンテンツのタイトルを該当するタイトル表示欄15c2に表示する。端末2は、各動画コンテンツにおける発話テキスト、及び発話テキストの表示の開始時点を該当する発話テキスト表示欄15c3に表示する。
Specifically, the
図示のように、1つの動画情報表示欄15c内に、3つの発話テキスト表示欄15c3が設けられる。例えば端末2は、発話テキストの発話IDの昇順に、先頭から3番目までの発話テキストを各発話テキスト表示欄15c3に表示する。なお、端末2は、複数の発話テキストから、ランダムに3つの発話テキストを抽出して各発話テキスト表示欄15c3に表示しても良い。なお、動画情報表示欄15c内の発話テキスト表示欄15c3の数は、ユーザのニーズに合わせて設けられても良い。
As illustrated, three speech text display columns 15c3 are provided in one moving image
端末2は、登録済みの発話テキストに対し、登録ボタン15c4のタッチ操作を受け付けた場合、発話テキストの登録解除処理を行う。具体的には、端末2は、ユーザID、動画コンテンツID及び該発話テキストの発話IDをサーバ1に送信する。サーバ1は、端末2から送信されたユーザID、動画コンテンツID及び該発話テキストの発話IDに基づいて、該当するレコードをノートDB175から削除する。端末2は、該当する登録ボタン15c4を登録解除済み状態に変更する。例えば端末2は、登録ボタン15c4の背景色を灰色に変更する。
When the
また、端末2は、登録解除済みの発話テキストに対し、登録ボタン15c4のタッチ操作を再度受け付けた場合、発話テキストの登録処理を行う。具体的には、端末2は、ユーザID、動画コンテンツID及び該発話テキストの発話IDをサーバ1に送信する。サーバ1は、端末2から送信されたユーザID、動画コンテンツID及び該発話テキストの発話IDを受信する。端末2は、受信したユーザID及び動画コンテンツIDに対応付けて、発話テキストの発話ID及び登録日時を一つのレコードとしてノートDB175に登録する。端末2は、該当する登録ボタン15c4を登録済み状態に変更する。例えば端末2は、登録ボタン15c4の背景色を赤に変更する。
Further, when the
端末2は、全部ボタン15c5のタッチ操作を受け付けた場合、後述する動画コンテンツにおけるすべての発話テキストの表示画面(図14)に遷移する。
When the
図14は、動画コンテンツにおけるすべての発話テキストの表示画面の一例を示す説明図である。なお、図13と重複する内容については同一の符号を付して説明を省略する。図示のように、端末2は、動画コンテンツのサムネイル画像をサムネイル画像表示欄15c1に表示し、動画コンテンツのタイトルをタイトル表示欄15c2に表示する。
FIG. 14 is an explanatory diagram showing an example of a display screen of all spoken texts in video content. Note that the same reference numerals are assigned to the contents that overlap with those in FIG. 13, and the description thereof is omitted. As illustrated, the
端末2は、動画コンテンツにおける各発話テキスト、及び各発話テキストの表示の開始時点を各発話テキスト表示欄15c3に表示する。発話テキストの表示順序は、例えば、発話テキストの発話IDの昇順であっても良く、または発話テキストの登録日時の新しい順であっても良い。なお、登録ボタン15c4の登録または登録解除処理に関しては、図13での処理と同様であるため、説明を省略する。
The
図15は、登録順に発話テキストの一覧画面の一例を示す説明図である。該画面は、発話テキスト表示欄16a及び登録ボタン16bを含む。発話テキスト表示欄16aは、発話テキスト及び該発話テキストの表示の開始時点を表示する表示欄である。登録ボタン16bは、発話テキストの登録または登録解除を行うためのボタンである。
FIG. 15 is an explanatory diagram showing an example of a list screen of utterance texts in order of registration. The screen includes a speech
端末2はユーザIDに基づいて、発話テキストの登録日時の古い順(登録順)に、登録済みの発話テキストをサーバ1のノートDB175から取得する。端末2は、取得した発話テキストの発話IDに基づいて、発話テキストの表示の開始時点をサーバ1の発話テキストDB172から取得する。端末2は、発話テキストの登録日時の古い順に、取得した各発話テキスト及び該発話テキストの表示の開始時点を、該当する発話テキスト表示欄16aに表示する。端末2は、各登録ボタン16bを登録済み状態に変更する。例えば端末2は、登録ボタン16bの背景色を赤に変更する。
Based on the user ID, the
また、発話テキストの登録日時は発話テキスト表示欄16aに表示されても良い。また、端末2は、カテゴリ毎に設定された色に合わせて、発話テキストのフォントカラーまたは発話テキストの表示領域(発話テキスト表示欄16a)の背景色を設定しても良い。更にまた、端末2は、発話テキストのタッチ操作を受け付けた場合、例えば、動画コンテンツの詳細画面(図8)に遷移し、該発話テキストの表示タイミングに対応する動画コンテンツの再生タイミングにて再生しても良い。
Also, the registration date and time of the spoken text may be displayed in the spoken
なお、縦方向に並べられた複数の発話テキスト表示欄16aが画面に収まりきらない場合、複数の発話テキスト表示欄16aを縦方向にスクロール可能に表示することができる。なお、登録ボタン16bの登録または登録解除処理に関しては、図13での処理と同様であるため、説明を省略する。
If the plurality of vertically arranged utterance
図16は、発話テキストを一覧で表示する際の処理手順を示すフローチャートである。端末2の制御部21は、発話テキストの一覧の表示種類を入力部24により受け付ける(ステップS221)。表示種類は、動画コンテンツ別に発話テキストを一覧で表示する「動画コンテンツ別」、及び登録順に発話テキストを一覧で表示する「登録順」を含む。制御部21は、ユーザID、及び受け付けた表示種類を通信部23によりサーバ1に送信する(ステップS222)。
FIG. 16 is a flow chart showing a processing procedure for displaying a list of spoken texts. The
サーバ1の制御部11は、端末2から送信されたユーザID及び表示種類を通信部13により受信する(ステップS121)。制御部11は、受信した表示種類が「動画コンテンツ別」であるか否かを判定する(ステップS122)。制御部11は、表示種類が「動画コンテンツ別」であると判定した場合(ステップS122でYES)、受信したユーザIDに基づいて、視聴された各動画コンテンツに関する情報(動画コンテンツのサムネイル画像及びタイトル等)、及び各動画コンテンツにおける登録済みの発話テキストを大容量記憶部17の動画コンテンツDB171及びノートDB175から取得する(ステップS123)。
The
制御部11は、取得した各動画に関する情報、及び各動画コンテンツにおける登録済みの発話テキストを通信部13により端末2に送信する(ステップS124)。端末2の制御部21は、サーバ1から送信された動画コンテンツに関する情報及び登録済みの発話テキストを通信部23により受信する(ステップS225)。制御部21は、動画コンテンツ別に、受信した動画コンテンツのサムネイル画像、タイトル、及び該動画コンテンツにおける登録済みの発話テキストを表示し(ステップS226)、処理を終了する。
The
サーバ1の制御部11は、表示種類が「動画コンテンツ別」でないと判定した場合(ステップS122でNO)、ユーザIDに基づいて、登録済みの発話テキストを大容量記憶部17のノートDB175から取得する(ステップS125)。制御部11は、取得した登録済みの発話テキストを通信部13により端末2に送信する(ステップS126)。端末2の制御部21は、サーバ1から送信された登録済みの発話テキストを通信部23により受信する(ステップS223)。制御部21は、発話テキストの登録日時の古い順(登録順)に、受信した発話テキストを表示部25により表示し(ステップS224)、処理を終了する。
When the
また、動画コンテンツの一覧画面と発話テキストの一覧画面との切り替えを行うことができる。
図17は、切り替え画面の一例を示す説明図である。該画面は、動画一覧ボタン17a及び発話テキスト一覧ボタン17bを含む。動画一覧ボタン17a及び発話テキスト一覧ボタン17bは、表示画面の一部の領域(例えば、画面の一番下)に固定的に表示される。動画一覧ボタン17aは、動画コンテンツの一覧画面(第1画面)に遷移するためのボタンである。発話テキスト一覧ボタン17bは、発話テキストの一覧画面(第2画面)に遷移するためのボタンである。
In addition, it is possible to switch between the video content list screen and the spoken text list screen.
FIG. 17 is an explanatory diagram showing an example of the switching screen. The screen includes a
端末2は、動画一覧ボタン17aのタッチ操作を受け付けた場合、動画コンテンツの一覧画面に遷移し、動画コンテンツの一覧画面を表示する。端末2は、発話テキスト一覧ボタン17bのタッチ操作を受け付けた場合、発話テキストの一覧画面に遷移し、発話テキストの一覧画面を表示する。
When the
本実施形態によると、動画コンテンツ別または登録順に、登録済みの発話テキストを一覧で表示することにより、発話テキストを随時に閲覧することが可能となる。 According to this embodiment, by displaying a list of registered speech texts by moving image content or in the order of registration, it is possible to view the speech texts at any time.
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the above-described meaning, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.
1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
16 読取部
17 大容量記憶部
171 動画コンテンツDB
172 発話テキストDB
173 ユーザDB
174 履歴DB
175 ノートDB
176 カテゴリDB
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 情報処理端末(端末)
21 制御部
22 記憶部
23 通信部
24 入力部
25 表示部
26 スピーカ
2P 制御プログラム
1 Information processing device (server)
REFERENCE SIGNS
172 Utterance Text DB
173 User database
174 History DB
175 Note DB
176 Category DB
1a
21
Claims (12)
取得した動画コンテンツの再生に合わせて段階的に前記発話テキストを表示し、
表示された前記発話テキストに対する登録操作を受け付けた場合に、前記発話テキストを情報処理装置に送信し、
ユーザが視聴した動画コンテンツ別に前記登録操作による登録済みの前記発話テキストの一覧を示す第1タブ、及び、前記発話テキストの登録順に前記登録操作による登録済みの前記発話テキストの一覧を示す第2タブを表示し、
前記第1タブの選択操作を受け付けた場合に、動画コンテンツ別に登録済みの前記発話テキストを一覧で表示し、
前記第2タブの選択操作を受け付けた場合に、登録順に前記発話テキストを一覧で表示する
処理をコンピュータに実行させるプログラム。 Acquiring a video content and an utterance text describing the utterance content of a speaker in the video content,
displaying the spoken text step by step according to the playback of the acquired video content;
transmitting the spoken text to an information processing device when a registration operation for the displayed spoken text is received ;
A first tab showing a list of the registered speech texts by the registration operation for each video content viewed by the user, and a second tab showing a list of the registered speech texts by the registration operation in order of registration of the speech texts. to display
displaying a list of the registered utterance texts for each video content when an operation for selecting the first tab is received;
Displaying a list of the spoken texts in the order of registration when the selection operation of the second tab is accepted
A program that causes a computer to carry out a process.
処理を実行させる請求項1に記載のプログラム。 For each uttered text in the video content, a first object for reproducing at the reproduction timing of the video content corresponding to the display timing of the uttered text, a second object for registering the uttered text, and the uttered text. 2. The program according to claim 1, causing execution of a process of operably displaying a third object for sharing.
処理を実行させる請求項1又は2に記載のプログラム。 3. The program according to claim 1 or 2, which executes a process of switching between display and non-display of the spoken text according to a user's operation while the moving image content is being reproduced.
取得した複数の前記発話テキストを一覧で表示する
処理を実行させる請求項1から3のいずれか一つに記載のプログラム。 obtaining a plurality of registered utterance texts in the video content;
4. The program according to any one of claims 1 to 3, which causes execution of a process of displaying a list of the acquired plurality of spoken texts.
前記発話テキストの登録済み状態を解除するための前記第4オブジェクトの操作入力を受け付けた場合、前記発話テキストの登録済み状態を解除する
処理を実行させる請求項1から4のいずれか一つに記載のプログラム。 When the selection operation of the first tab is accepted, for each video content, a thumbnail image and title of each video content, registered utterance text in the video content, and a fourth object indicating the registered state of the utterance text to display
5. The method according to any one of claims 1 to 4 , wherein a process of canceling the registered state of the utterance text is executed when an operation input of the fourth object for canceling the registered state of the utterance text is received. program.
前記第5オブジェクトへの操作入力を受け付けた場合、前記動画コンテンツの一覧を表示する第1画面に遷移し、
前記第6オブジェクトへの操作入力を受け付けた場合、前記第1タブ及び第2タブを含む登録済みの前記発話テキストの一覧を表示する第2画面に遷移する
処理を実行させる請求項1から5のいずれか一つに記載のプログラム。 fixedly displaying a fifth object for displaying the video content list and a sixth object for displaying the spoken text list in a partial area of the display screen;
When an operation input to the fifth object is received, transitioning to a first screen displaying a list of the video content,
6. The method according to any one of claims 1 to 5 , wherein when an operation input to the sixth object is accepted, a process of transitioning to a second screen displaying a list of the registered utterance texts including the first tab and the second tab is executed. The program according to any one .
処理を実行させる請求項1から6のいずれか一つに記載のプログラム。 7. The program according to any one of claims 1 to 6 , causing execution of a process of arranging and displaying the moving image content and the spoken text in the moving image content in association with each other for a plurality of the moving image contents.
カテゴリ毎に分類して色分け表示された表示領域を第1方向に並べて表示し、
各前記表示領域内に、カテゴリに属する動画コンテンツと、該動画コンテンツにおける発話テキストとを対応付けて、第2方向に並べて表示する
処理を実行させる請求項1から7のいずれか一つに記載のプログラム。 Multiple video content is registered for each category set based on video content,
Displaying the display areas classified by category and displayed in different colors in a first direction,
8. The display area according to any one of claims 1 to 7 , wherein the video content belonging to the category and the spoken text in the video content are associated with each other and displayed side by side in the second direction. program.
取得した各動画コンテンツにおける発話テキストを複数取得し、
各動画コンテンツにおける複数の発話テキストをスワイプ操作により切り替えて表示する
処理を実行させる請求項1から8のいずれか一つに記載のプログラム。 Get multiple video contents belonging to the category,
Acquire multiple spoken texts in each acquired video content,
9. The program according to any one of claims 1 to 8 , which executes a process of switching and displaying a plurality of spoken texts in each video content by a swipe operation.
取得した動画コンテンツの再生に合わせて段階的に前記発話テキストを表示し、
表示された前記発話テキストに対する登録操作に基づき、前記発話テキストを登録し、
ユーザが視聴した動画コンテンツ別に前記登録操作による登録済みの前記発話テキストの一覧を示す第1タブ、及び、前記発話テキストの登録順に前記登録操作による登録済みの前記発話テキストの一覧を示す第2タブを表示し、
前記第1タブの選択操作を受け付けた場合に、動画コンテンツ別に登録済みの前記発話テキストを一覧で表示し、
前記第2タブの選択操作を受け付けた場合に、登録順に前記発話テキストを一覧で表示する
情報処理方法。 Acquiring a video content and an utterance text describing the utterance content of a speaker in the video content,
displaying the spoken text step by step according to the playback of the acquired video content;
registering the spoken text based on a registration operation for the displayed spoken text;
A first tab showing a list of the registered speech texts by the registration operation for each video content viewed by the user, and a second tab showing a list of the registered speech texts by the registration operation in order of registration of the speech texts. to display
displaying a list of the registered utterance texts for each video content when an operation for selecting the first tab is received;
Displaying a list of the spoken texts in the order of registration when the selection operation of the second tab is accepted
Information processing methods.
取得した動画コンテンツの再生に合わせて段階的に前記発話テキストを表示し、
表示された前記発話テキストに対する登録操作を受け付けた場合に、前記発話テキストを情報処理装置に送信し、
動画コンテンツに基づいて設定されたカテゴリ毎に、複数の動画コンテンツが登録されており、
カテゴリ毎に分類して色分け表示された表示領域を第1方向に並べて表示し、
各前記表示領域内に、カテゴリに属する動画コンテンツと、該動画コンテンツにおける前記登録操作による登録済みの発話テキストとを対応付けて、第2方向に並べて表示する
処理をコンピュータに実行させるプログラム。 Acquiring a video content and an utterance text describing the utterance content of a speaker in the video content,
displaying the spoken text step by step according to the playback of the acquired video content;
transmitting the spoken text to an information processing device when a registration operation for the displayed spoken text is received ;
Multiple video content is registered for each category set based on video content,
Displaying the display areas classified by category and displayed in different colors in a first direction,
In each of the display areas, video content belonging to a category and registered utterance text in the video content by the registration operation are associated and displayed side by side in the second direction.
A program that causes a computer to carry out a process.
取得した動画コンテンツの再生に合わせて段階的に前記発話テキストを表示し、 displaying the spoken text step by step according to the playback of the acquired video content;
表示された前記発話テキストに対する登録操作を受け付けた場合に、前記発話テキストを情報処理装置に送信し、 transmitting the spoken text to an information processing device when a registration operation for the displayed spoken text is received;
動画コンテンツに基づいて設定されたカテゴリ毎に、複数の動画コンテンツが登録されており、 Multiple video content is registered for each category set based on video content,
カテゴリに属する動画コンテンツを複数取得し、 Get multiple video contents belonging to the category,
取得した各動画コンテンツにおける前記登録操作による登録済みの発話テキストを複数取得し、 Obtaining a plurality of registered utterance texts by the registration operation in each obtained video content,
各動画コンテンツにおける複数の発話テキストをスワイプ操作により切り替えて表示する Switch and display multiple spoken texts in each video content by swiping
処理をコンピュータに実行させるプログラム。 A program that causes a computer to carry out a process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021042812A JP7282118B2 (en) | 2021-03-16 | 2021-03-16 | Program and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021042812A JP7282118B2 (en) | 2021-03-16 | 2021-03-16 | Program and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022142589A JP2022142589A (en) | 2022-09-30 |
JP7282118B2 true JP7282118B2 (en) | 2023-05-26 |
Family
ID=83426297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021042812A Active JP7282118B2 (en) | 2021-03-16 | 2021-03-16 | Program and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7282118B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003078889A (en) | 2001-08-30 | 2003-03-14 | Mitsubishi Electric Corp | Caption processing apparatus |
JP2009239639A (en) | 2008-03-27 | 2009-10-15 | Toshiba Corp | Display apparatus, server apparatus, system, and display method |
JP2009302702A (en) | 2008-06-11 | 2009-12-24 | Hitachi Ltd | Content-reproducing device and content- reproducing method |
JP2011097563A (en) | 2009-09-30 | 2011-05-12 | Canon Inc | Digital broadcasting receiving apparatus and method of controlling the same |
JP2012256350A (en) | 2012-08-07 | 2012-12-27 | Toshiba Corp | Information processor and information display method |
JP2018142989A (en) | 2018-05-01 | 2018-09-13 | 株式会社ドワンゴ | Terminal device, motion picture distribution device, and program |
JP2019169928A (en) | 2018-03-26 | 2019-10-03 | 株式会社Jvcケンウッド | Subtitle generation device and subtitle generation program |
-
2021
- 2021-03-16 JP JP2021042812A patent/JP7282118B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003078889A (en) | 2001-08-30 | 2003-03-14 | Mitsubishi Electric Corp | Caption processing apparatus |
JP2009239639A (en) | 2008-03-27 | 2009-10-15 | Toshiba Corp | Display apparatus, server apparatus, system, and display method |
JP2009302702A (en) | 2008-06-11 | 2009-12-24 | Hitachi Ltd | Content-reproducing device and content- reproducing method |
JP2011097563A (en) | 2009-09-30 | 2011-05-12 | Canon Inc | Digital broadcasting receiving apparatus and method of controlling the same |
JP2012256350A (en) | 2012-08-07 | 2012-12-27 | Toshiba Corp | Information processor and information display method |
JP2019169928A (en) | 2018-03-26 | 2019-10-03 | 株式会社Jvcケンウッド | Subtitle generation device and subtitle generation program |
JP2018142989A (en) | 2018-05-01 | 2018-09-13 | 株式会社ドワンゴ | Terminal device, motion picture distribution device, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022142589A (en) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8977779B2 (en) | Augmentative and alternative communication system with personalized user interface and content | |
US8966402B2 (en) | System and method for editing interactive three-dimension multimedia, and online editing and exchanging architecture and method thereof | |
JP6066101B2 (en) | Method for dynamically creating moving image based on structured document, electronic device, electronic system, and program for electronic device | |
US8700635B2 (en) | Electronic device, data processing method, data control method, and content data processing system | |
CN103136326A (en) | System and method for presenting comments with media | |
AU2016327275A1 (en) | Automatic performance of user interaction operations on a computing device | |
CN106104528A (en) | Begin a project for screen and select and the method based on model of disambiguation | |
JP2013536528A (en) | How to create and navigate link-based multimedia | |
WO2022198811A1 (en) | Method and apparatus for music sharing, electronic device, and storage medium | |
CN101185138A (en) | Display device | |
JP2021535656A (en) | Video processing methods, equipment, devices and computer programs | |
CN103703442A (en) | User interface for media content presentation | |
US20140178046A1 (en) | Video playback device, video playback method, non-transitory storage medium having stored thereon video playback program, video playback control device, video playback control method and non-transitory storage medium having stored thereon video playback control program | |
CN104572712A (en) | Multimedia file browsing system and multimedia file browsing method | |
JP7282118B2 (en) | Program and information processing method | |
KR100850046B1 (en) | Electronic lecture apparatus | |
CN103140825A (en) | Viewing device, viewing method, non-transitory computer-readable recording medium whereon program is recorded, and script program | |
CN105051820A (en) | Information processing device and information processing method | |
JP7176806B1 (en) | program learning device | |
EP2954437B1 (en) | System to generate a mixed media experience | |
JP2013109168A (en) | Electronic textbook device, classroom system, and program | |
JP2008186512A (en) | Content reproducing device | |
JP2022051500A (en) | Related information provision method and system | |
US9253436B2 (en) | Video playback device, video playback method, non-transitory storage medium having stored thereon video playback program, video playback control device, video playback control method and non-transitory storage medium having stored thereon video playback control program | |
JP5255865B2 (en) | Screen transition design support device, screen transition design support method, and screen transition design support program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7282118 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |