JP2013229873A - Candidate selection device, candidate selection method, and computer program - Google Patents

Candidate selection device, candidate selection method, and computer program Download PDF

Info

Publication number
JP2013229873A
JP2013229873A JP2013091631A JP2013091631A JP2013229873A JP 2013229873 A JP2013229873 A JP 2013229873A JP 2013091631 A JP2013091631 A JP 2013091631A JP 2013091631 A JP2013091631 A JP 2013091631A JP 2013229873 A JP2013229873 A JP 2013229873A
Authority
JP
Japan
Prior art keywords
moving image
comment
input candidate
input
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013091631A
Other languages
Japanese (ja)
Inventor
Makoto Shimura
誠 志村
Yosuke Michiue
洋介 道植
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Publication of JP2013229873A publication Critical patent/JP2013229873A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To present a more accurate input candidate to a user who inputs a character string depending on a reproduced video.SOLUTION: A character string is selected as a user's input candidate in accordance with an elapsed time from the start of reproduction of video data reproduced on an output device.

Description

文字列の入力を補助する技術に関する。   The present invention relates to a technique for assisting character string input.

近年、パーソナルコンピュータや携帯端末へ向けた動画のストリーミング配信が行われている。また、動画の再生時間(動画再生時間)に対応してコメントの投稿を受け付け、動画とコメントとを動画再生時間に合わせて表示する技術も提案されている。例えば特許文献1には、ライブ配信とユーザ向けのコミュニケーション機能との連携をとる技術が開示されている。この技術では、配信されるライブ映像と、チャット参加者の端末から送信されるメッセージ情報(コメント)とを、同じ画面上で指定されたレイアウトに同期して表示させている。   In recent years, streaming distribution of moving images to personal computers and portable terminals has been performed. There has also been proposed a technique for accepting posting of a comment corresponding to the playback time of a video (video playback time) and displaying the video and the comment in accordance with the video playback time. For example, Patent Literature 1 discloses a technique for linking live distribution with a communication function for users. In this technique, live video to be distributed and message information (comments) transmitted from a chat participant's terminal are displayed in synchronization with a designated layout on the same screen.

チャット参加者は、キーボードやタッチパネルやボタン等の入力装置を操作することによってコメントを入力する。近年は、文字列の入力の補助を行うための技術がいくつか提案されている。例えば特許文献2には、補完候補文字列を生成し、これを入力途中の文字列に対する補完候補文字列として提示する技術が開示されている。   A chat participant inputs a comment by operating an input device such as a keyboard, a touch panel, or a button. In recent years, several techniques for assisting the input of character strings have been proposed. For example, Patent Literature 2 discloses a technique for generating a supplement candidate character string and presenting it as a supplement candidate character string for a character string being input.

特開2004−015750号公報JP 2004-015750 A 特開2007−058444号公報JP 2007-058444 A

特許文献2に開示された技術では、再生される動画に応じて入力補助の処理は変わることはない。しかしながら、ユーザがコメントとして入力しようとする文字列は、再生されている動画に応じて変わる場合があった。そのため、特許文献2に開示された技術では、ユーザが入力しようとする文字列が適切に提示されない場合があった。   In the technique disclosed in Patent Document 2, the input assistance process does not change according to the reproduced moving image. However, the character string that the user intends to input as a comment may change depending on the moving image being played. For this reason, in the technique disclosed in Patent Document 2, the character string that the user intends to input may not be appropriately presented.

上記事情に鑑み、本発明は、再生される動画に応じて文字列を入力するユーザに対し、より精度の高い入力候補を提示する技術の提供を目的としている。   In view of the above circumstances, an object of the present invention is to provide a technique for presenting input candidates with higher accuracy to a user who inputs a character string in accordance with a reproduced moving image.

本発明の一態様は、出力装置に再生される動画データの再生開始からの経過時間に応じて文字列をユーザの入力候補として選択する選択部を備える候補選択装置である。   One aspect of the present invention is a candidate selection device including a selection unit that selects a character string as a user input candidate in accordance with an elapsed time from the start of reproduction of moving image data reproduced on an output device.

本発明の一態様は、上記の候補選択装置であって、出力装置に再生される動画データの再生開始からの経過時間に従って変化する係数を取得する係数取得部と、前記係数取得部によって取得された前記係数に基づいて文字列のスコアを算出するスコア算出部と、をさらに備え、前記選択部は、前記スコアが高い前記文字列を、ユーザの入力候補の文字列として選択する。   One aspect of the present invention is the above-described candidate selecting device, which is obtained by the coefficient obtaining unit that obtains a coefficient that changes according to the elapsed time from the start of reproduction of the moving image data that is reproduced on the output device, and the coefficient obtaining unit. A score calculation unit that calculates a score of a character string based on the coefficient, and the selection unit selects the character string having a high score as a character string of a user input candidate.

本発明の一態様は、上記の候補選択装置であって、前記選択部は、過去に選択された入力候補と現時点で選択された入力候補とを前記出力装置に表示させ、一定の過去において既に選択された入力候補を選択しない。   One aspect of the present invention is the candidate selection device described above, wherein the selection unit displays the input candidate selected in the past and the input candidate selected at the present time on the output device, and has already been displayed in a certain past. Do not select the selected input candidate.

本発明の一態様は、出力装置に再生される動画データの再生開始からの経過時間に応じて文字列をユーザの入力候補として選択する選択ステップを有する候補選択方法である。   One aspect of the present invention is a candidate selection method including a selection step of selecting a character string as a user input candidate in accordance with an elapsed time from the start of reproduction of moving image data reproduced on an output device.

本発明の一態様は、出力装置に再生される動画データの再生開始からの経過時間に応じて文字列をユーザの入力候補として選択する選択ステップをコンピュータに実行させるためのコンピュータプログラムである。   One aspect of the present invention is a computer program for causing a computer to execute a selection step of selecting a character string as a user input candidate in accordance with an elapsed time from the start of reproduction of moving image data reproduced on an output device.

本発明により、再生される動画に応じて文字列を入力するユーザに対し、より精度の高い入力候補を提示することが可能となる。   According to the present invention, it is possible to present input candidates with higher accuracy to a user who inputs a character string according to a reproduced moving image.

動画配信システム1のシステム構成を表すシステム構成図である。1 is a system configuration diagram illustrating a system configuration of a moving image distribution system 1. FIG. 端末装置100の第一実施形態(端末装置100a)の機能構成を表す概略ブロック図である。3 is a schematic block diagram illustrating a functional configuration of the first embodiment (terminal device 100a) of the terminal device 100. FIG. 入力候補テーブルの概略を示す図である。It is a figure which shows the outline of an input candidate table. 出力部102によって表示される画面20の具体例を示す図である。6 is a diagram illustrating a specific example of a screen 20 displayed by an output unit 102. FIG. 端末装置100aの動作の流れを示すフローチャートである。It is a flowchart which shows the flow of operation | movement of the terminal device 100a. 変形例として構成された選択部107の処理によって表示される画面20を示す図である。It is a figure which shows the screen 20 displayed by the process of the selection part 107 comprised as a modification. 端末装置100の第二実施形態(端末装置100b)の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the function structure of 2nd embodiment (terminal device 100b) of the terminal device 100. FIG. 係数情報の具体例を示す図である。It is a figure which shows the specific example of coefficient information. パラメータテーブルの具体例を示す図である。It is a figure which shows the specific example of a parameter table. 係数情報を生成する係数情報生成装置600の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the function structure of the coefficient information generation apparatus 600 which produces | generates coefficient information. コメントカテゴリテーブルの概略を示す図である。It is a figure which shows the outline of a comment category table. コメントテーブルの概略を示す図である。It is a figure which shows the outline of a comment table. コメント分類装置700の機能構成を表す概略ブロック図である。3 is a schematic block diagram illustrating a functional configuration of a comment classification device 700. FIG. カテゴリ定義テーブルの概略を示す図である。It is a figure which shows the outline of a category definition table. 動画ジャンルテーブルの概略を示す図である。It is a figure which shows the outline of a moving image genre table. 共起指数の概念を示す図である。It is a figure which shows the concept of a co-occurrence index. 端末装置100の第三実施形態(端末装置100c)の機能構成を表す概略ブロック図である。It is a schematic block diagram showing the function structure of 3rd embodiment (terminal device 100c) of the terminal device 100. 第三実施形態において用いられる入力候補テーブルの概略を示す図である。It is a figure which shows the outline of the input candidate table used in 3rd embodiment. 第三実施形態における出力部102によって表示される画面20の具体例を示す図である。It is a figure which shows the specific example of the screen 20 displayed by the output part 102 in 3rd embodiment. 入力候補テーブル生成装置800の機能構成を表す概略ブロック図である。5 is a schematic block diagram illustrating a functional configuration of an input candidate table generation device 800. FIG. クラスタ生成部802のクラスタリング処理の一例を示す図である。6 is a diagram illustrating an example of clustering processing of a cluster generation unit 802. FIG.

[概略]
以下、本発明の一実施形態である端末装置100について説明する。端末装置100は、出力装置に再生される動画データの再生開始からの経過時間(動画再生時間)に応じて文字列をユーザの入力候補として選択する。そして、端末装置100は、選択された入力候補の文字列を出力装置に表示させることによってユーザに提供する。ユーザは、表示された入力候補の文字列を選択することによって、容易に文字列を端末装置100に入力することができる。ユーザに提供される入力候補の文字列は、再生される動画データの再生開始からの経過時間(動画再生時間)に従って変化する。そのため、再生中の動画データの内容に応じた入力候補が提供される。したがって、再生される動画に応じて文字列を入力するユーザに対し、より精度の高い入力候補を提示することが可能となる。なお、動画再生時間は、動画データの先頭から再生した場合の経過時間を表す。
[Outline]
Hereinafter, the terminal device 100 which is one Embodiment of this invention is demonstrated. The terminal device 100 selects a character string as a user input candidate according to the elapsed time (moving image playback time) from the start of playback of the moving image data played back on the output device. Then, the terminal device 100 provides the user with the character string of the selected input candidate displayed on the output device. The user can easily input a character string to the terminal device 100 by selecting the displayed input candidate character string. The input candidate character string provided to the user changes according to the elapsed time (moving image reproduction time) from the start of reproduction of the reproduced moving image data. Therefore, input candidates corresponding to the contents of the moving image data being reproduced are provided. Therefore, it becomes possible to present input candidates with higher accuracy to a user who inputs a character string according to a reproduced moving image. The movie playback time represents the elapsed time when playback is started from the beginning of the movie data.

[システム構成]
図1は、動画配信システム1のシステム構成を表すシステム構成図である。動画配信システム1は、端末装置100、入力候補サーバ200、動画配信サーバ300、コメントサーバ400、ネットワーク500を備える。各装置はネットワーク500を介して互いに通信可能に接続されている。なお、動画配信システム1は、各装置を複数台備えても良い。
[System configuration]
FIG. 1 is a system configuration diagram illustrating a system configuration of the moving image distribution system 1. The moving image distribution system 1 includes a terminal device 100, an input candidate server 200, a moving image distribution server 300, a comment server 400, and a network 500. Each device is connected to be communicable with each other via a network 500. Note that the moving image distribution system 1 may include a plurality of devices.

端末装置100は、ユーザによって操作される装置であり、動画配信サーバ300から動画データの配信を受ける。端末装置100は、例えば携帯電話機、PDA(Personal Digital Assistant)、スマートフォン、タブレット型パーソナルコンピュータ、ノート型パーソナルコンピュータ、据え置き型パーソナルコンピュータ、カーナビゲーション装置、テレビ受像機、固定電話機等の通信可能な情報処理装置である。端末装置100は、出力装置に再生される動画データの再生開始からの経過時間(動画再生時間)に応じて文字列をユーザの入力候補として選択する。そして、端末装置100は、選択された入力候補の文字列を出力装置に表示させることによってユーザに提供する。   The terminal device 100 is a device operated by a user, and receives distribution of moving image data from the moving image distribution server 300. The terminal device 100 is a communicable information processing device such as a mobile phone, a PDA (Personal Digital Assistant), a smartphone, a tablet personal computer, a notebook personal computer, a stationary personal computer, a car navigation device, a television receiver, and a fixed telephone. Device. The terminal device 100 selects a character string as a user input candidate according to the elapsed time (moving image playback time) from the start of playback of the moving image data played back on the output device. Then, the terminal device 100 provides the user with the character string of the selected input candidate displayed on the output device.

入力候補サーバ200は、予め入力候補テーブルを記憶している。入力候補テーブルは、動画再生時間と、その動画再生時間にユーザが入力する傾向の高い文字列とを対応付けたテーブルである。入力候補サーバ200は、端末装置100に対しネットワーク500を介して入力候補テーブルを送信する。   The input candidate server 200 stores an input candidate table in advance. The input candidate table is a table in which a moving image reproduction time is associated with a character string that is likely to be input by the user during the moving image reproduction time. The input candidate server 200 transmits an input candidate table to the terminal device 100 via the network 500.

動画配信サーバ300は、予め動画データを記憶している。動画配信サーバ300は、端末装置100に対しネットワーク500を介して動画データを配信する。
コメントサーバ400は、端末装置100に対しネットワーク500を介してコメントテーブルを配信する。コメントテーブルは、動画データの配信を受けている端末装置100から投稿される文字情報(コメント)と、コメントが投稿された時点の動画再生時間とを対応付けたテーブルである。端末装置100では、動画データの動画再生時間に合わせてコメントが表示される。
The moving image distribution server 300 stores moving image data in advance. The moving image distribution server 300 distributes moving image data to the terminal device 100 via the network 500.
The comment server 400 distributes the comment table to the terminal device 100 via the network 500. The comment table is a table in which character information (comments) posted from the terminal device 100 receiving distribution of moving image data is associated with the moving image playback time at the time the comment is posted. In the terminal device 100, a comment is displayed according to the moving image playback time of the moving image data.

[第一実施形態]
図2は、端末装置100の第一実施形態(端末装置100a)の機能構成を表す概略ブロック図である。端末装置100aは、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、プログラムを実行する。プログラムの実行により、端末装置100aは、入力部101、出力部102、通信部103、動画再生部104、コメント制御部105、記憶部106、選択部107を備える装置として機能する。なお、端末装置100aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されても良い。端末装置100aが実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。端末装置100aが実行するプログラムは、電気通信回線を介して送信されても良い。
[First embodiment]
FIG. 2 is a schematic block diagram illustrating a functional configuration of the first embodiment (terminal device 100a) of the terminal device 100. The terminal device 100a includes a CPU (Central Processing Unit), a memory, an auxiliary storage device, and the like connected by a bus, and executes a program. By executing the program, the terminal device 100a functions as a device including an input unit 101, an output unit 102, a communication unit 103, a moving image playback unit 104, a comment control unit 105, a storage unit 106, and a selection unit 107. Note that all or part of each function of the terminal device 100a may be realized using hardware such as an application specific integrated circuit (ASIC), a programmable logic device (PLD), or a field programmable gate array (FPGA). The program executed by the terminal device 100a may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The program executed by the terminal device 100a may be transmitted via a telecommunication line.

入力部101は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。入力部101は、ユーザの指示を端末装置100aに入力する際にユーザによって操作される。入力部101は、入力装置を端末装置100aに接続するためのインタフェースであっても良い。この場合、入力部101は、入力装置においてユーザの入力に応じ生成された入力信号を端末装置100aに入力する。   The input unit 101 is configured using an existing input device such as a keyboard, a pointing device (such as a mouse or a tablet), a button, or a touch panel. The input unit 101 is operated by the user when inputting a user instruction to the terminal device 100a. The input unit 101 may be an interface for connecting the input device to the terminal device 100a. In this case, the input unit 101 inputs an input signal generated in response to a user input in the input device to the terminal device 100a.

出力部102は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示装置である。出力部102は、再生されている動画データの映像やコメントの文字列を表示する。出力部102は、画像表示装置を端末装置100aに接続するためのインタフェースであっても良い。この場合、出力部102は、再生されている動画データの映像やコメントの文字列を表示するための映像信号を生成し、自身に接続されている画像表示装置に映像信号を出力する。   The output unit 102 is a display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro Luminescence) display. The output unit 102 displays the video of the moving image data being reproduced and the character string of the comment. The output unit 102 may be an interface for connecting the image display device to the terminal device 100a. In this case, the output unit 102 generates a video signal for displaying the video of the moving image data being reproduced and the character string of the comment, and outputs the video signal to the image display device connected to itself.

通信部103は、ネットワーク500を介して他の装置と通信する。例えば、通信部103は入力候補サーバ200から、入力候補テーブルを受信する。例えば、通信部103は動画配信サーバ300からネットワーク500を介して動画データを受信する。例えば、通信部103はネットワーク500を介してコメントサーバ400からコメントテーブルを受信する。   The communication unit 103 communicates with other devices via the network 500. For example, the communication unit 103 receives an input candidate table from the input candidate server 200. For example, the communication unit 103 receives moving image data from the moving image distribution server 300 via the network 500. For example, the communication unit 103 receives a comment table from the comment server 400 via the network 500.

動画再生部104は、入力部101を介して入力されるユーザの指示に従って、動画データの配信を要求するためのデータ(動画要求データ)を生成する。動画再生部104は、通信部103を介して動画配信サーバ300に対し動画要求データを送信する。動画配信サーバ300は、動画要求データを受信すると、受信した動画要求データによって要求されている動画データを読み出し、読み出した動画データを要求元の端末装置100aへ送信する。動画再生部104は、動画要求データに応じて動画配信サーバ300から送信される動画データを、通信部103を介して受ける。動画再生部104は、動画データを再生し、出力部102に映像を出力する。   The video playback unit 104 generates data (video request data) for requesting distribution of video data in accordance with a user instruction input via the input unit 101. The moving image reproduction unit 104 transmits the moving image request data to the moving image distribution server 300 via the communication unit 103. When the moving image distribution server 300 receives the moving image request data, the moving image distribution server 300 reads out the moving image data requested by the received moving image request data and transmits the read moving image data to the requesting terminal device 100a. The moving image reproduction unit 104 receives the moving image data transmitted from the moving image distribution server 300 according to the moving image request data via the communication unit 103. The moving image reproducing unit 104 reproduces moving image data and outputs video to the output unit 102.

コメント制御部105は、動画再生部104によって要求される動画データに対応したコメントテーブルを要求するためのデータ(コメント要求データ)を生成する。コメント要求データは、例えば動画データを特定するための識別情報(動画ID)を含む。コメント制御部105は、通信部103を介してコメントサーバ400に対しコメント要求データを送信する。コメントサーバ400は、コメント要求データを受信すると、受信したコメント要求データに含まれる動画IDに対応するコメントテーブルを読み出し、読み出したコメントテーブルを要求元の端末装置100aへ送信する。コメント制御部105は、コメント要求データに応じてコメントサーバ400から送信されるコメントテーブルを、通信部103を介して受ける。コメント制御部105は、動画データの再生時間(動画再生時間)に対応するコメントをコメントテーブルから取得し、出力部102にコメントを出力する。   The comment control unit 105 generates data (comment request data) for requesting a comment table corresponding to the moving image data requested by the moving image reproducing unit 104. The comment request data includes, for example, identification information (moving image ID) for specifying moving image data. The comment control unit 105 transmits comment request data to the comment server 400 via the communication unit 103. Upon receiving the comment request data, the comment server 400 reads a comment table corresponding to the moving image ID included in the received comment request data, and transmits the read comment table to the requesting terminal device 100a. The comment control unit 105 receives a comment table transmitted from the comment server 400 according to the comment request data via the communication unit 103. The comment control unit 105 acquires a comment corresponding to the reproduction time (moving image reproduction time) of the moving image data from the comment table, and outputs the comment to the output unit 102.

記憶部106は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部106は、入力候補テーブルを記憶する。図3は、入力候補テーブルの概略を示す図である。入力候補テーブルは、入力候補となる文字列と、動画再生時間とを対応付けた複数のレコード61を有する。入力候補テーブルは、動画毎(動画ID毎)に生成されたテーブルである。レコード61に記録される文字列は、そのレコード61の動画再生時間にユーザが入力する傾向の高い文字列である。レコード61が有する文字列は、動画再生時間に示される時間の間に入力候補としてユーザに提供される。   The storage unit 106 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 106 stores an input candidate table. FIG. 3 is a diagram showing an outline of the input candidate table. The input candidate table has a plurality of records 61 in which character strings to be input candidates are associated with moving image playback times. The input candidate table is a table generated for each moving image (for each moving image ID). The character string recorded in the record 61 is a character string that is likely to be input by the user during the moving image playback time of the record 61. The character string included in the record 61 is provided to the user as an input candidate during the time indicated by the moving image playback time.

例えば、“wwwwwwwwww”という文字列は、動画再生時間が0:00:00(0時間0分0秒)から0:52:00(0時間52分00秒)の間に入力候補としてユーザに提供される。例えば、“888888”という文字列は、動画再生時間が0:00:20(0時間0分20秒)から0:26:20(0時間26分20秒)の間と、0:45:00(0時間45分0秒)から0:50:00(0時間50分0秒)の間に入力候補としてユーザに提供される。例えば、“すげえええええ”という文字列は、動画再生時間が0:12:30(0時間12分30秒)から0:13:20(0時間13分20秒)の間に入力候補としてユーザに提供される。   For example, the character string “wwwwwwwww” is provided to the user as an input candidate during the video playback time from 0:00: 00 (0 hour 0 minute 0 second) to 0:52:00 (0 hour 52 minute 00 second) Is done. For example, the character string “888888” indicates that the video playback time is between 0:00:20 (0 hour, 0 minute, 20 seconds) and 0:26:20 (0 hour, 26 minutes, 20 seconds), and 0:45:00. It is provided to the user as an input candidate between (0 hours 45 minutes 0 seconds) and 0:50:00 (0 hours 50 minutes 0 seconds). For example, the character string “Sweet yeah yeah” is used as an input candidate when the video playback time is between 0:12:30 (0 hours 12 minutes 30 seconds) and 0:13:20 (0 hours 13 minutes 20 seconds). Provided to the user.

入力候補テーブルはどのような処理によって生成されても良い。入力候補テーブルは、例えば動画に過去に投稿されたコメントを解析することによって作成される。入力候補テーブルは、動画に過去に投稿されたコメントを人間が解析することによって作成されても良いし、動画に過去に投稿されたコメントを解析する装置によって自動的に作成されても良い。また、入力候補テーブルは、動画に過去に投稿されたコメントにかかわらず、人間の作業によって作業者の勘などにたよって作成されても良い。   The input candidate table may be generated by any process. The input candidate table is created, for example, by analyzing comments posted in the past on moving images. The input candidate table may be created by a human analyzing a comment posted in the past on a moving image, or may be automatically created by a device that analyzes a comment posted in the past on a moving image. Further, the input candidate table may be created based on the intuition of the operator by human work, regardless of comments posted in the past on the moving image.

図2に戻って端末装置100aの構成の説明を続ける。選択部107は、動画再生部104によって要求される動画データに対応した入力候補テーブルを要求するためのデータ(入力候補要求データ)を生成する。入力候補要求データは、例えば動画データを特定するための識別情報(動画ID)を含む。選択部107は、通信部103を介して入力候補サーバ200に対し入力候補要求データを送信する。入力候補サーバ200は、入力候補要求データを受信すると、受信した入力候補要求データに含まれる動画IDに対応する入力候補テーブルを読み出し、読み出した入力候補テーブルを要求元の端末装置100aへ送信する。選択部107は、入力候補要求データに応じて入力候補サーバ200から送信される入力候補テーブルを、通信部103を介して受け、記憶部106に記録する。   Returning to FIG. 2, the description of the configuration of the terminal device 100a will be continued. The selection unit 107 generates data (input candidate request data) for requesting an input candidate table corresponding to the moving image data requested by the moving image reproducing unit 104. The input candidate request data includes, for example, identification information (moving image ID) for specifying moving image data. The selection unit 107 transmits input candidate request data to the input candidate server 200 via the communication unit 103. When receiving the input candidate request data, the input candidate server 200 reads the input candidate table corresponding to the moving image ID included in the received input candidate request data, and transmits the read input candidate table to the requesting terminal device 100a. The selection unit 107 receives the input candidate table transmitted from the input candidate server 200 according to the input candidate request data via the communication unit 103 and records it in the storage unit 106.

選択部107は、動画再生部104によって再生されている動画データの再生時間(動画再生時間)に応じて、記憶部106の入力候補テーブルから1又は複数の文字列を読み出す。具体的には以下の通りである。選択部107は、動画再生部104から動画再生時間を取得する。選択部107は、取得した動画再生時間に対応する動画再生時間の値を有したレコード61を検索する。選択部107は、検索によって得られたレコード61の文字列を、入力候補として選択する。選択部107は、選択した文字列を出力部102に入力候補として表示させる。   The selection unit 107 reads one or a plurality of character strings from the input candidate table of the storage unit 106 according to the reproduction time (moving image reproduction time) of the moving image data being reproduced by the moving image reproduction unit 104. Specifically, it is as follows. The selection unit 107 acquires the video playback time from the video playback unit 104. The selection unit 107 searches for a record 61 having a moving image playback time value corresponding to the acquired moving image playback time. The selection unit 107 selects a character string of the record 61 obtained by the search as an input candidate. The selection unit 107 displays the selected character string as an input candidate on the output unit 102.

図4は、出力部102によって表示される画面20の具体例を示す図である。画面20は、動画表示領域210及び入力用表示領域220を有する。以下、各領域について説明する。
動画表示領域210には、動画再生部104によって再生される動画データの映像と、動画に対して投稿されたコメントの文字列とが表示される。図4において、動画表示領域210に表示されている文字列211がコメントである。“青い”、“帰ってきた・・”、“日本は?”、“きれいだな”等の文字列も同様にコメントの文字列である。コメントの文字列211は、例えばコメントに対応する動画再生時間になると画面の右端から現れ、動画表示領域210を左に向けて横切り、左端に消えるように動いても良い。
FIG. 4 is a diagram illustrating a specific example of the screen 20 displayed by the output unit 102. The screen 20 has a moving image display area 210 and an input display area 220. Hereinafter, each region will be described.
In the moving image display area 210, a video of moving image data reproduced by the moving image reproducing unit 104 and a character string of a comment posted on the moving image are displayed. In FIG. 4, a character string 211 displayed in the moving image display area 210 is a comment. Character strings such as “blue”, “returned ...”, “Japan?”, “Beautiful” are also comment strings. For example, the comment character string 211 may appear so as to appear from the right end of the screen at the moving image playback time corresponding to the comment, cross the moving image display area 210 to the left, and disappear to the left end.

入力用表示領域220には、コメント入力欄22、投稿ボタン23、複数の入力候補ボタン24(24−1〜24−10)が表示される。コメント入力欄22には、ユーザが入力部101を操作することによって入力したコメントの文字列が表示される。ユーザが入力部101を操作することによって投稿ボタン23に対する操作(クリック、タップ等)を行うと、コメント制御部105は、コメント入力欄22に表示されていたコメントの文字列と、その時点の動画再生時間と、再生されている動画の動画IDと、を取得する。コメント制御部105は、取得したコメントの文字列と、動画再生時間と、動画IDとを対応付けて、コメント投稿データを作成する。そして、コメント制御部105は、作成したコメント投稿データを、通信部103を介してコメントサーバ400へ送信する。コメントサーバ400は、受信したコメント投稿データのコメントの文字列及び動画再生時間を、動画IDに対応するコメントテーブルに登録する。   In the input display area 220, a comment input field 22, a posting button 23, and a plurality of input candidate buttons 24 (24-1 to 24-10) are displayed. In the comment input field 22, a character string of a comment input by the user operating the input unit 101 is displayed. When the user performs an operation (click, tap, etc.) on the posting button 23 by operating the input unit 101, the comment control unit 105 displays the comment character string displayed in the comment input field 22 and the video at that time. The playback time and the video ID of the video being played back are acquired. The comment control unit 105 creates comment posting data by associating the acquired character string of the comment, the moving image playback time, and the moving image ID. Then, the comment control unit 105 transmits the created comment posting data to the comment server 400 via the communication unit 103. The comment server 400 registers the comment character string and the moving image playback time of the received comment posting data in the comment table corresponding to the moving image ID.

入力候補ボタン24(24−1〜24−10)には、選択部107によって入力候補として選択された文字列が表示される。例えば、入力候補ボタン24−1には“すげええええええ”という文字列が表示されている。ユーザが入力部101を操作することによって入力候補ボタン24−1に対する操作を行うと、コメント制御部105は、入力候補ボタン24−1に表示されている文字列をコメント入力欄22に入力する。その後、投稿ボタン23に対する操作が行われると、上記のようにコメント投稿データが作成され、コメントサーバ400に送信される。   Character strings selected as input candidates by the selection unit 107 are displayed on the input candidate buttons 24 (24-1 to 24-10). For example, the input candidate button 24-1 displays a character string “Sweet yeah yeah yeah”. When the user operates the input candidate button 24-1 by operating the input unit 101, the comment control unit 105 inputs the character string displayed on the input candidate button 24-1 into the comment input field 22. Thereafter, when an operation is performed on the posting button 23, comment posting data is created as described above and transmitted to the comment server 400.

図5は、端末装置100aの動作の流れを示すフローチャートである。まず、ユーザが入力部101を操作して、再生する動画を選択する(ステップS101)。動画再生部104は、ユーザによって選択された動画データの配信を要求するための動画要求データを生成する。動画再生部104は、生成した動画要求データを送信し、動画配信サーバ300から動画データを受信する。また、動画再生部104は、ユーザによって選択された動画のID(動画ID)をコメント制御部105及び選択部107に通知する。   FIG. 5 is a flowchart showing a flow of operations of the terminal device 100a. First, the user operates the input unit 101 to select a moving image to be played (step S101). The moving image reproduction unit 104 generates moving image request data for requesting distribution of moving image data selected by the user. The video playback unit 104 transmits the generated video request data and receives video data from the video distribution server 300. In addition, the moving image reproduction unit 104 notifies the comment control unit 105 and the selection unit 107 of the ID (moving image ID) of the moving image selected by the user.

コメント制御部105は、ユーザによって選択された動画に対応するコメントテーブルを要求するためのコメント要求データを生成する。コメント制御部105は、生成したコメント要求データを送信し、コメントサーバ400からコメントテーブルを受信する。   The comment control unit 105 generates comment request data for requesting a comment table corresponding to the moving image selected by the user. The comment control unit 105 transmits the generated comment request data and receives a comment table from the comment server 400.

選択部107は、ユーザによって選択された動画に対応する入力候補テーブルを要求するための入力候補要求データを生成する。選択部107は、生成した入力候補要求データを送信し、入力候補サーバ200から入力候補テーブルを受信する。選択部107は、受信した入力候補テーブルを記憶部106に書き込む。このようにして、端末装置100aは、ユーザによって選択された動画に応じた入力候補テーブルを取得する(ステップS102)。   The selection unit 107 generates input candidate request data for requesting an input candidate table corresponding to the moving image selected by the user. The selection unit 107 transmits the generated input candidate request data and receives an input candidate table from the input candidate server 200. The selection unit 107 writes the received input candidate table in the storage unit 106. In this manner, the terminal device 100a acquires an input candidate table corresponding to the moving image selected by the user (step S102).

次に、動画再生部104は、受信した動画の再生を開始する(ステップS103)。その後、動画再生が終了するまで選択部107は動画再生時間に応じた入力候補を選択し、入力用表示領域220に入力候補ボタン24として表示する(ステップS104,S105−NO)。動画の再生が終了すると(ステップS105−YES)、図5に示すフローチャートの処理が終了する。   Next, the moving image reproduction unit 104 starts reproduction of the received moving image (step S103). Thereafter, the selection unit 107 selects an input candidate corresponding to the moving image reproduction time until the moving image reproduction ends, and displays the input candidate as the input candidate button 24 in the input display area 220 (steps S104 and S105—NO). When the reproduction of the moving image is finished (step S105—YES), the processing of the flowchart shown in FIG. 5 is finished.

このように構成された第一実施形態の端末装置100aでは、動画再生部104によって再生される動画データの再生開始からの経過時間(動画再生時間)に応じて、その動画再生時間に入力される傾向の高い文字列が選択部107によって選択される。そして、選択部107によって選択された文字列が、入力候補としてユーザに提供される。そのため、より精度の高い入力候補を提示することが可能となる。   In the terminal device 100a of the first embodiment configured as described above, an input is made to the moving image reproduction time according to the elapsed time (moving image reproduction time) from the start of reproduction of the moving image data reproduced by the moving image reproducing unit 104. A character string having a high tendency is selected by the selection unit 107. Then, the character string selected by the selection unit 107 is provided to the user as an input candidate. Therefore, it is possible to present input candidates with higher accuracy.

<変形例>
動画配信システム1において、端末装置100aが備える機能の一部が他の装置において実装されても良い。すなわち、複数の装置を用いて端末装置100aの機能が形成されても良い。入力候補サーバ200、動画配信サーバ300、コメントサーバ400の各装置についても同様である。例えば、記憶部106及び選択部107の機能が他の装置(例えば入力候補サーバ200)に実装されても良い。この場合、端末装置100aの制御部は、再生される動画データの動画再生時間及び動画IDを他の装置に送信し、動画再生時間及び動画IDに応じて入力候補となる文字列を他の装置から受信する。そして、制御部は、受信した入力候補に基づいた入力候補ボタン24を出力部102に表示させる。
<Modification>
In the moving image distribution system 1, some of the functions of the terminal device 100a may be implemented in another device. That is, the function of the terminal device 100a may be formed using a plurality of devices. The same applies to the input candidate server 200, the moving image distribution server 300, and the comment server 400. For example, the functions of the storage unit 106 and the selection unit 107 may be implemented in another device (for example, the input candidate server 200). In this case, the control unit of the terminal device 100a transmits the moving image reproduction time and the moving image ID of the moving image data to be reproduced to the other device, and sets the character strings that are input candidates according to the moving image reproduction time and the moving image ID to the other device. Receive from. Then, the control unit causes the output unit 102 to display the input candidate button 24 based on the received input candidate.

上述した説明では、入力候補テーブルは動画毎に予め生成され、入力候補サーバ200に記憶されている。しかし、入力候補テーブルは、複数の動画に対して共通するテーブルとして予め生成されていても良い。例えば、動画のジャンル毎に共通した入力候補テーブルが生成されても良いし、動画配信サーバ300によって配信される全ての動画に共通した入力候補テーブルが生成されても良い。
入力候補テーブルは、入力候補サーバ200からネットワーク500を介して端末装置100に送信されるのではなく、予め端末装置100の記憶部106が記憶していても良い。
In the above description, the input candidate table is generated in advance for each moving image and stored in the input candidate server 200. However, the input candidate table may be generated in advance as a common table for a plurality of moving images. For example, an input candidate table common to each genre of moving images may be generated, or an input candidate table common to all moving images distributed by the moving image distribution server 300 may be generated.
The input candidate table is not transmitted from the input candidate server 200 to the terminal device 100 via the network 500, but may be stored in advance in the storage unit 106 of the terminal device 100.

入力候補テーブルの各レコード61に登録される動画再生時間の値は、図3のように絶対値としての時間(時分秒)を表すのではなく、相対値としての割合を表しても良い。例えば、0%〜10%という値が動画再生時間として与えられても良い。この場合、動画再生時間は、動画全体の長さT秒に対して0秒目〜0.1×T秒という時間を表す。このような構成により、動画の全体の再生時間が変化する場合や、再生時間が異なる複数の動画に共通した入力候補テーブルが設定される場合に対応することが可能となる。   The value of the moving image playback time registered in each record 61 of the input candidate table may represent a ratio as a relative value instead of the time (hour, minute, second) as an absolute value as shown in FIG. For example, a value of 0% to 10% may be given as the moving image playback time. In this case, the moving image playback time represents the time from 0 second to 0.1 × T seconds with respect to the length T seconds of the entire moving image. With such a configuration, it is possible to cope with a case where the entire playback time of a moving image changes or a case where an input candidate table common to a plurality of moving images having different playback times is set.

入力用表示領域220には、入力候補ボタン24が複数表示されるのではなく、入力候補ボタン24が一つだけ表示されても良い。
ユーザが入力部101を操作することによって入力候補ボタン24に対する操作を入力した場合、コメント制御部105は、投稿ボタン23に対する操作がなされた場合の処理まで実行しても良い。具体的には以下の通りである。ユーザが入力部101を操作することによって入力候補ボタン24に対する操作が行われた場合、コメント制御部105は、入力候補ボタン24に表示されている文字列と、その時点の動画再生時間と、再生されている動画のID(動画ID)を取得する。コメント制御部105は、取得した入力候補の文字列と動画再生時間と動画IDとを対応付けて、コメント投稿データを作成し、通信部103を介してコメントサーバ400へ送信する。この場合、投稿ボタン23は表示されなくとも良い。
A plurality of input candidate buttons 24 may not be displayed in the input display area 220, but only one input candidate button 24 may be displayed.
When the user inputs an operation on the input candidate button 24 by operating the input unit 101, the comment control unit 105 may execute processing up to the case where the operation on the posting button 23 is performed. Specifically, it is as follows. When the user operates the input candidate button 24 by operating the input unit 101, the comment control unit 105 displays the character string displayed on the input candidate button 24, the video playback time at that time, and the playback ID of the moving image (moving image ID) is acquired. The comment control unit 105 creates comment posting data by associating the acquired character strings of input candidates, the moving image playback time, and the moving image ID, and transmits the comment posting data to the comment server 400 via the communication unit 103. In this case, the posting button 23 may not be displayed.

図6は、変形例として構成された選択部107の処理によって表示される画面20を示す図である。変形例として構成された選択部107は、ユーザによって操作された入力候補ボタン24の文字列に関連する文字列(以下、「関連文字列」という。)の入力候補ボタン24を入力用表示領域220に表示する。以下、図4及び図6を用いて、変形例として構成された選択部107の処理の具体例について説明する。   FIG. 6 is a diagram illustrating a screen 20 displayed by processing of the selection unit 107 configured as a modification. The selection unit 107 configured as a modification includes an input candidate button 24 for a character string related to the character string of the input candidate button 24 operated by the user (hereinafter referred to as “related character string”) as an input display area 220. To display. Hereinafter, a specific example of processing of the selection unit 107 configured as a modification will be described with reference to FIGS. 4 and 6.

図4において端末装置100aのユーザが入力候補ボタン24−6(文字列“888888”に対応したボタン)に対して操作を行った場合、選択部107は、入力部101を介して操作された入力候補ボタン24−6に対応する文字列“888888”を取得する。次に、選択部107は、取得した文字列“888888”と関連する文字列(関連文字列)を取得する。例えば、選択部107は、入力候補テーブルに登録されている各文字列のカテゴリを示す情報(例えば、後述するコメントカテゴリテーブル)を予め記憶しており、文字列“888888”と同じカテゴリの文字列を関連文字列として取得しても良い。また、例えば選択部107は、入力候補テーブルに登録されている各文字列について複数のカテゴリとの関連の強さを表すパラメータを示す情報(例えば、後述するパラメータテーブル)を予め記憶しており、文字列“888888”とパラメータの値が近い文字列を関連文字列として取得しても良い。   In FIG. 4, when the user of the terminal device 100 a operates the input candidate button 24-6 (the button corresponding to the character string “888888”), the selection unit 107 performs the input operated via the input unit 101. The character string “888888” corresponding to the candidate button 24-6 is acquired. Next, the selection unit 107 acquires a character string (related character string) related to the acquired character string “888888”. For example, the selection unit 107 stores in advance information indicating the category of each character string registered in the input candidate table (for example, a comment category table described later), and a character string in the same category as the character string “888888”. As a related character string. For example, the selection unit 107 stores in advance information (for example, a parameter table described later) indicating parameters indicating the strength of association with a plurality of categories for each character string registered in the input candidate table. A character string having a parameter value close to that of the character string “888888” may be acquired as a related character string.

そして、選択部107は、関連文字列の入力候補ボタン24を入力用表示領域220に表示する。選択部107は、入力候補テーブルから動画再生時間に基づいて選択した文字列の全ての入力候補ボタン24と、関連文字列の入力候補ボタン24とを表示しても良い。この場合、入力用表示領域220がそれまでよりも大きくなっても良いし、一つの入力候補ボタン24の大きさが小さくなっても良い。また、選択部107は、入力候補テーブルから動画再生時間に基づいて選択した文字列の一部の入力候補ボタン24と、関連文字列の入力候補ボタン24とを表示しても良い。例えば、選択部107は、取得した関連文字列の入力候補ボタン24を優先的に表示し、残りの部分に表示可能な数だけ、入力候補テーブルから選択した文字列の入力候補ボタン24を表示しても良い。   The selection unit 107 displays the related character string input candidate buttons 24 in the input display area 220. The selection unit 107 may display all the input candidate buttons 24 of the character strings selected from the input candidate table based on the moving image playback time and the input candidate buttons 24 of the related character strings. In this case, the input display area 220 may be larger than before, or the size of one input candidate button 24 may be smaller. Further, the selection unit 107 may display a part of the input candidate buttons 24 of the character strings selected from the input candidate table based on the moving image playback time and the input candidate buttons 24 of the related character strings. For example, the selection unit 107 preferentially displays the acquired related character string input candidate buttons 24, and displays as many character string input candidate buttons 24 selected from the input candidate table as can be displayed in the remaining portion. May be.

また、選択部107は、操作された入力候補ボタン24を入力用表示領域220の左上の位置に表示し、その付近(例えば最上段、最上段及び2段目)に関連文字列の入力候補ボタン24を表示し、残る入力用表示領域220に入力候補テーブルから選択した文字列の入力候補ボタン24を表示しても良い。図6は、このように構成された選択部107による表示の具体例を示している。なお、上述した関連文字列の入力候補ボタン24の表示方法は一例であり、上記方法に限定されない。
入力用表示領域220は、常に画面20に表示されている必要は無い。例えば、ユーザが、タッチパネルを用いて構成された入力部101をタップする操作に応じて、入力用表示領域220が表示されても良い。
In addition, the selection unit 107 displays the operated input candidate button 24 at the upper left position of the input display area 220, and the related character string input candidate buttons in the vicinity thereof (for example, the uppermost row, the uppermost row, and the second row). 24, and the input candidate buttons 24 for the character strings selected from the input candidate table may be displayed in the remaining input display area 220. FIG. 6 shows a specific example of display by the selection unit 107 configured as described above. The above-described display method of the related character string input candidate buttons 24 is an example, and is not limited to the above method.
The input display area 220 need not always be displayed on the screen 20. For example, the input display area 220 may be displayed in response to an operation in which the user taps the input unit 101 configured using a touch panel.

[第二実施形態]
図7は、端末装置100の第二実施形態(端末装置100b)の機能構成を表す概略ブロック図である。端末装置100bは、記憶部106に代えて係数情報記憶部106−1及びパラメータ記憶部106−2を備える点、選択部107に代えて選択部107bを備える点で、第一実施形態の端末装置100aと異なり、他の構成は第一実施形態の端末装置100aと同じである。以下、第二実施形態の端末装置100bについて、第一実施形態の端末装置100aと異なる点について説明する。
[Second Embodiment]
FIG. 7 is a schematic block diagram illustrating a functional configuration of the terminal device 100 according to the second embodiment (terminal device 100b). The terminal device 100b is a terminal device according to the first embodiment in that it includes a coefficient information storage unit 106-1 and a parameter storage unit 106-2 instead of the storage unit 106, and includes a selection unit 107b instead of the selection unit 107. Unlike 100a, other configurations are the same as the terminal device 100a of the first embodiment. Hereinafter, the difference between the terminal device 100b of the second embodiment and the terminal device 100a of the first embodiment will be described.

係数情報記憶部106−1は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。係数情報記憶部106−1は、動画毎に生成される係数情報を記憶する。図8は、係数情報の具体例を示す図である。図8において、横軸は動画再生時間、縦軸は各係数の値を示す。係数情報は、1種類以上の係数の時間変化を表す。言い換えれば、係数情報は、動画再生時間ごとの各係数の値を示す。図8の例では、3種類の要素(笑い、興奮、悲しみ)の係数の時間変化が示されている。各係数は、動画再生時間毎に、その時点に再生されている動画の内容における各要素の強さを表す。例えば、動画再生時間t1の時点では、動画の内容は興奮の要素の度合いが高く、笑いや悲しみの要素の度合いは低い。例えば、動画再生時間t2の時点では、動画の内容は笑いの要素の度合いが最も高く、興奮の要素の度合いが2番目に高く、悲しみの要素の度合いは低い。例えば、動画再生時間t3の時点では、動画の内容は悲しみの度合いが最も高く、笑い及び興奮の要素の度合いは低い。   The coefficient information storage unit 106-1 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The coefficient information storage unit 106-1 stores coefficient information generated for each moving image. FIG. 8 is a diagram illustrating a specific example of coefficient information. In FIG. 8, the horizontal axis represents the moving image playback time, and the vertical axis represents the value of each coefficient. The coefficient information represents a time change of one or more kinds of coefficients. In other words, the coefficient information indicates the value of each coefficient for each moving image playback time. In the example of FIG. 8, the time change of the coefficient of three types of elements (laughter, excitement, sadness) is shown. Each coefficient represents the strength of each element in the content of the moving image being played back at that time for each moving image playback time. For example, at the time of the moving image playback time t1, the content of the moving image has a high degree of excitement and a low level of laughter and sadness. For example, at the time of moving image playback time t2, the content of the moving image has the highest degree of laughter, the second highest level of excitement, and the lower level of sadness. For example, at the time of moving image reproduction time t3, the content of the moving image has the highest degree of sadness and the degree of elements of laughter and excitement is low.

係数情報はどのような処理によって生成されても良い。係数情報は、例えば動画に過去に投稿されたコメントを解析することによって作成される。係数情報は、動画に過去に投稿されたコメントを人間が解析することによって作成されても良いし、動画に過去に投稿されたコメントを解析する装置によって自動的に作成されても良い。また、係数情報は、動画に過去に投稿されたコメントにかかわらず、人間の作業によって作業者の印象などにたよって作成されても良い。   The coefficient information may be generated by any process. The coefficient information is created, for example, by analyzing comments posted in the past on a moving image. The coefficient information may be created by a human analyzing a comment posted in the past on a moving image, or may be automatically created by a device that analyzes a comment posted in the past on a moving image. Also, the coefficient information may be created according to the impression of the worker by human work, regardless of comments posted in the past on the moving image.

図7に戻って端末装置100bの構成の説明を続ける。パラメータ記憶部106−2は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。パラメータ記憶部106−2は、パラメータテーブルを記憶する。図9は、パラメータテーブルの具体例を示す図である。パラメータテーブルは、入力候補となる文字列と、文字列のパラメータとを対応付けた複数のレコード62を有する。レコード62に記録される文字列は、そのパラメータ及び再生される動画の動画再生時間における係数に基づいて算出されるスコアに応じて、入力候補としてユーザに提供される。   Returning to FIG. 7, the description of the configuration of the terminal device 100b will be continued. The parameter storage unit 106-2 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The parameter storage unit 106-2 stores a parameter table. FIG. 9 is a diagram showing a specific example of the parameter table. The parameter table includes a plurality of records 62 in which character strings that are input candidates and character string parameters are associated with each other. The character string recorded in the record 62 is provided to the user as an input candidate according to the parameter and the score calculated based on the coefficient in the moving image reproduction time of the reproduced moving image.

パラメータC1〜C3は、各文字列が入力される際の動画の要素の割合を示している。C1は笑いの要素に関するパラメータの値を示し、C2は興奮の要素に関するパラメータの値を示し、C3は悲しみに関するパラメータの値を示す。C1が高い文字列は、再生されている動画が笑いの要素の度合いが高い動画である場合に入力される傾向が強い文字列である。C2が高い文字列は、再生されている動画が興奮の要素の度合いが高い動画である場合に入力される傾向が強い文字列である。C3が高い文字列は、再生されている動画が悲しみの要素の度合いが高い動画である場合に入力される傾向が強い文字列である。   Parameters C1 to C3 indicate the ratio of moving image elements when each character string is input. C1 indicates the value of the parameter regarding the laughing element, C2 indicates the value of the parameter regarding the excitement element, and C3 indicates the value of the parameter regarding sadness. A character string having a high C1 is a character string that has a strong tendency to be input when the moving image being played is a moving image having a high degree of laughter. A character string having a high C2 is a character string that has a strong tendency to be input when the moving image being played is a moving image having a high degree of excitement. A character string with a high C3 is a character string that has a strong tendency to be input when the moving image being played is a moving image with a high degree of sadness.

パラメータNは、動画再生時間にかかわらず、各文字列が入力される頻度を表すパラメータである。Nの値が大きいほど、その文字列が入力される頻度が高いことを示す。
パラメータテーブルはどのような処理によって生成されても良い。パラメータテーブルは、例えば動画に過去に投稿されたコメントを解析することによって作成される。パラメータテーブルは、動画に過去に投稿されたコメントを人間が解析することによって作成されても良いし、動画に過去に投稿されたコメントを解析する装置によって自動的に作成されても良い。また、パラメータテーブルは、動画に過去に投稿されたコメントにかかわらず、人間の作業によって作業者の印象などにたよって作成されても良い。
The parameter N is a parameter representing the frequency with which each character string is input regardless of the moving image playback time. It shows that the frequency with which the character string is input is so high that the value of N is large.
The parameter table may be generated by any process. The parameter table is created, for example, by analyzing comments posted in the past on moving images. The parameter table may be created by a human analyzing a comment posted in the past on a moving image, or may be automatically created by a device that analyzes a comment posted in the past on a moving image. Further, the parameter table may be created according to the impression of the worker by human work, regardless of comments posted in the past on the moving image.

図7に戻って端末装置100bの構成の説明を続ける。選択部107bは、動画再生部104によって再生されている動画に対応する係数情報及びパラメータテーブルに基づいて、各文字列の動画再生時間に応じたスコアを算出し、スコアが高い文字列を入力候補として選択する。以下に示す式1は、選択部107bがスコアを算出する際に用いる数式の具体例である。   Returning to FIG. 7, the description of the configuration of the terminal device 100b will be continued. The selection unit 107b calculates a score corresponding to the video playback time of each character string based on the coefficient information and parameter table corresponding to the video being played back by the video playback unit 104, and inputs a character string having a high score as an input candidate Choose as. Formula 1 shown below is a specific example of a mathematical formula used when the selection unit 107b calculates a score.

Figure 2013229873
Figure 2013229873

式1において、xは文字列を表し、Score(x)は文字列xのスコアを表し、Nxは文字列xのパラメータNの値を表し、iは要素を表し、Mは要素の種類の数(図8の場合はM=3)を表し、Siは要素iの係数を表し、Cxiは文字列x及び要素iのパラメータ(すなわち文字列xのCi)を表す。   In Expression 1, x represents a character string, Score (x) represents the score of the character string x, Nx represents the value of the parameter N of the character string x, i represents an element, and M represents the number of element types. (M = 3 in the case of FIG. 8), Si represents the coefficient of the element i, and Cxi represents the character string x and the parameter of the element i (that is, Ci of the character string x).

選択部107bは、係数情報に基づいて動画再生時間に応じた各要素の係数Siを取得する。また、選択部107bは、各文字列のパラメータ(N、C1〜C3)を取得する。選択部107bは、各要素の係数Siとパラメータとに基づいて、その時点の各文字列のスコアを算出する。選択部107bは、スコアが高い方から所定数の文字列を入力候補として選択する。選択部107bは、選択した入力候補の入力候補ボタン24を出力部102に表示させる。   The selection unit 107b acquires the coefficient Si of each element according to the moving image playback time based on the coefficient information. The selection unit 107b acquires parameters (N, C1 to C3) of each character string. The selection unit 107b calculates the score of each character string at that time based on the coefficient Si and the parameter of each element. The selection unit 107b selects a predetermined number of character strings from the higher score as input candidates. The selection unit 107b causes the output unit 102 to display the input candidate button 24 of the selected input candidate.

第二実施形態の端末装置100bは、図5に示されるフローチャートにしたがって動作する。選択部107bは、図5のステップS104に示される処理において、各文字列のスコアを算出し、スコアが高い文字列を入力候補として選択する。
このように構成された第二実施形態の端末装置100bでは、動画再生部104によって再生される動画データの再生開始からの経過時間(動画再生時間)における動画の内容の要素に応じて、入力される傾向の高い文字列が選択部107bによって選択される。そして、選択部107bによって選択された文字列が、入力候補としてユーザに提供される。そのため、より精度の高い入力候補を提示することが可能となる。
The terminal device 100b according to the second embodiment operates according to the flowchart shown in FIG. In the process shown in step S104 of FIG. 5, the selection unit 107b calculates the score of each character string, and selects a character string having a high score as an input candidate.
In the terminal device 100b of the second embodiment configured as described above, an input is made in accordance with an element of the content of the moving image in the elapsed time (moving image reproduction time) from the start of reproduction of the moving image data reproduced by the moving image reproducing unit 104. A character string having a high tendency to be selected is selected by the selection unit 107b. Then, the character string selected by the selection unit 107b is provided to the user as an input candidate. Therefore, it is possible to present input candidates with higher accuracy.

<変形例>
上述した各係数及びパラメータの内容は一例に過ぎない。したがって、上述したものとは異なる係数やパラメータが用いられても良い。
図9に示される具体例では、パラメータC1〜C3の合計値は1となっている。しかしながら、パラメータC1〜C3の合計値は文字列毎に異なっても良い。
パラメータテーブルは、動画毎に生成されても良いし、動画のジャンル毎に生成されても良いし、動画配信サーバ300によって配信される全ての動画に共通したテーブルが生成されても良い。
<Modification>
The contents of the coefficients and parameters described above are merely examples. Accordingly, coefficients and parameters different from those described above may be used.
In the specific example shown in FIG. 9, the total value of the parameters C1 to C3 is 1. However, the total value of the parameters C1 to C3 may be different for each character string.
The parameter table may be generated for each moving image, may be generated for each moving image genre, or a table common to all moving images distributed by the moving image distribution server 300 may be generated.

係数情報は、入力候補サーバ200からネットワーク500を介して端末装置100bに提供されても良いし、端末装置100bの係数情報記憶部106−1が予め記憶していても良い。
パラメータテーブルは、入力候補サーバ200からネットワーク500を介して端末装置100bに提供されても良いし、端末装置100bのパラメータ記憶部106−2が予め記憶していても良い。
第二実施形態の端末装置100bは、第一実施形態の端末装置100aと同様に変形して構成されても良い。
The coefficient information may be provided from the input candidate server 200 to the terminal device 100b via the network 500, or may be stored in advance in the coefficient information storage unit 106-1 of the terminal device 100b.
The parameter table may be provided from the input candidate server 200 to the terminal device 100b via the network 500, or may be stored in advance by the parameter storage unit 106-2 of the terminal device 100b.
The terminal device 100b of the second embodiment may be modified and configured in the same manner as the terminal device 100a of the first embodiment.

[係数情報生成装置]
図10は、係数情報を生成する係数情報生成装置600の機能構成を表す概略ブロック図である。係数情報生成装置600は、バスで接続されたCPUやメモリや補助記憶装置などを備え、プログラムを実行する。プログラムの実行により、係数情報生成装置600は、コメントカテゴリ記憶部601、コメント記憶部602、係数情報生成部603、係数情報記憶部604を備える装置として機能する。なお、係数情報生成装置600の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。係数情報生成装置600が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。係数情報生成装置600が実行するプログラムは、電気通信回線を介して送信されても良い。
[Coefficient information generator]
FIG. 10 is a schematic block diagram illustrating a functional configuration of a coefficient information generation apparatus 600 that generates coefficient information. The coefficient information generation device 600 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a program. By executing the program, the coefficient information generation apparatus 600 functions as an apparatus including a comment category storage unit 601, a comment storage unit 602, a coefficient information generation unit 603, and a coefficient information storage unit 604. Note that all or part of the functions of the coefficient information generation apparatus 600 may be realized using hardware such as an ASIC, PLD, or FPGA. The program executed by the coefficient information generation apparatus 600 may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The program executed by the coefficient information generating apparatus 600 may be transmitted via a telecommunication line.

コメントカテゴリ記憶部601は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。コメントカテゴリ記憶部601は、コメントカテゴリテーブルを記憶する。図11は、コメントカテゴリテーブルの概略を示す図である。コメントカテゴリテーブルは、コメントの文字列と、そのコメントが属するカテゴリ(以下、「コメントカテゴリ」という。)と、を対応付けたレコード63を複数有する。各コメントが属するカテゴリは、人間の作業によって作業者の印象などにたよって判断されても良いし、動画に過去に投稿されたコメントを解析する装置によって自動的に判断されても良い。   The comment category storage unit 601 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The comment category storage unit 601 stores a comment category table. FIG. 11 is a diagram showing an outline of the comment category table. The comment category table includes a plurality of records 63 in which a character string of a comment is associated with a category to which the comment belongs (hereinafter referred to as “comment category”). The category to which each comment belongs may be determined based on the impression of the worker by human work, or may be automatically determined by a device that analyzes comments posted in the past on moving images.

コメント記憶部602は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。コメント記憶部602は、動画データ毎にコメントテーブルを記憶する。図12は、コメントテーブルの概略を示す図である。コメントテーブルは、動画データに投稿されたコメントと、コメントが投稿された時点の動画再生時間とを対応付けたレコード64を複数有する。   The comment storage unit 602 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The comment storage unit 602 stores a comment table for each moving image data. FIG. 12 is a diagram showing an outline of the comment table. The comment table includes a plurality of records 64 in which a comment posted to the moving image data is associated with a moving image playback time at the time when the comment is posted.

係数情報生成部603は、コメントカテゴリテーブル及びコメントテーブルに基づいて、動画データごとに係数情報を生成する。例えば、係数情報生成部603は、所定の時間幅(例えば1秒、5秒、10秒など)毎に、その間に投稿されたコメントをコメントテーブルから取得する。次に、係数情報生成部603は、取得した各コメントのカテゴリを、コメントカテゴリテーブルから取得する。そして、係数情報生成部603は、各カテゴリに属するコメントの数に応じて、その時間帯(動画再生時間)の係数を決定する。例えば、ある時間帯に、笑いに属するコメントが9個、興奮に属するコメントが1個、悲しみに属するコメントがゼロ個、それぞれ投稿されている場合、係数情報生成部603は、笑いの係数を9、興奮の係数を1、悲しみの係数を0として決定する。係数情報生成部603は、全ての動画再生時間にわたって係数を決定し、係数情報を生成する。   The coefficient information generation unit 603 generates coefficient information for each moving image data based on the comment category table and the comment table. For example, the coefficient information generation unit 603 acquires comments posted during a predetermined time width (for example, 1 second, 5 seconds, 10 seconds, etc.) from the comment table. Next, the coefficient information generation unit 603 acquires the acquired category of each comment from the comment category table. Then, the coefficient information generation unit 603 determines the coefficient of the time zone (moving image playback time) according to the number of comments belonging to each category. For example, when nine comments belonging to laughter, one comment belonging to excitement, and zero comment belonging to sadness are posted in a certain time period, the coefficient information generation unit 603 sets the coefficient of laughter to 9 The coefficient of excitement is set to 1 and the coefficient of sadness is set to 0. The coefficient information generation unit 603 determines a coefficient over all moving image playback times and generates coefficient information.

係数情報記憶部604は、磁気ハードディスク装置や半導体記憶装置を用いて構成される。係数情報記憶部604は、動画毎に、係数情報生成部603によって生成された係数情報を記憶する。   The coefficient information storage unit 604 is configured using a magnetic hard disk device or a semiconductor storage device. The coefficient information storage unit 604 stores the coefficient information generated by the coefficient information generation unit 603 for each moving image.

このように構成された係数情報生成装置600によれば、コメントカテゴリテーブル及びコメントテーブルに基づいて、自動的に係数情報を生成することが可能となる。係数情報生成装置600によって生成された係数情報は、入力候補サーバ200によって端末装置100bに配信されても良いし、端末装置100bによって予め記憶されていても良い。   According to the coefficient information generating apparatus 600 configured as described above, it is possible to automatically generate coefficient information based on the comment category table and the comment table. The coefficient information generated by the coefficient information generation apparatus 600 may be distributed to the terminal apparatus 100b by the input candidate server 200, or may be stored in advance by the terminal apparatus 100b.

[コメント分類装置]
図13は、コメント分類装置700の機能構成を表す概略ブロック図である。コメント分類装置700は、バスで接続されたCPUやメモリや補助記憶装置などを備え、プログラムを実行する。プログラムの実行により、コメント分類装置700は、カテゴリ定義記憶部701、コメント記憶部702、動画ジャンル記憶部703、共起指数算出部704、パラメータ記憶部705、分類部706、コメントカテゴリ記憶部707を備える装置として機能する。なお、コメント分類装置700の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。コメント分類装置700が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。コメント分類装置700が実行するプログラムは、電気通信回線を介して送信されても良い。
[Comment classifier]
FIG. 13 is a schematic block diagram illustrating a functional configuration of the comment classification device 700. The comment classification device 700 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a program. By executing the program, the comment classification device 700 includes a category definition storage unit 701, a comment storage unit 702, a moving image genre storage unit 703, a co-occurrence index calculation unit 704, a parameter storage unit 705, a classification unit 706, and a comment category storage unit 707. It functions as a device provided. All or some of the functions of the comment classification device 700 may be realized using hardware such as an ASIC, PLD, or FPGA. The program executed by the comment classification device 700 may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The program executed by the comment classification device 700 may be transmitted via a telecommunication line.

カテゴリ定義記憶部701は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。カテゴリ定義記憶部701は、カテゴリ定義テーブルを記憶する。図14は、カテゴリ定義テーブルの概略を示す図である。カテゴリ定義テーブルは、コメントカテゴリと、コメントカテゴリに属するコメントの中で典型的なコメント(以下、「メインコメント」という。)と、を対応付けたレコード65を複数有する。一つのコメントカテゴリに対して複数のメインコメントが対応付けられてもよい。コメントカテゴリに対応するメインコメントは、人間の作業によって作業者の印象などにたよって決定されても良いし、動画に過去に投稿されたコメントを解析する装置によって自動的に決定されても良い。   The category definition storage unit 701 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The category definition storage unit 701 stores a category definition table. FIG. 14 is a diagram showing an outline of the category definition table. The category definition table includes a plurality of records 65 in which comment categories and typical comments (hereinafter referred to as “main comments”) among comments belonging to the comment category are associated with each other. A plurality of main comments may be associated with one comment category. The main comment corresponding to the comment category may be determined according to the impression of the worker by human work, or may be automatically determined by a device that analyzes comments posted in the past on the moving image.

コメント記憶部702は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。コメント記憶部702は、動画データ毎にコメントテーブルを記憶する。コメント記憶部702が記憶するコメントテーブルは、係数情報生成装置600のコメント記憶部602が記憶するコメントテーブルと同様の構成である。すなわち、コメント記憶部702が記憶するコメントテーブルは、図12に示される通りである。そのため、コメント記憶部702が記憶するコメントテーブルについての詳細な説明を省略する。   The comment storage unit 702 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The comment storage unit 702 stores a comment table for each moving image data. The comment table stored in the comment storage unit 702 has the same configuration as the comment table stored in the comment storage unit 602 of the coefficient information generation apparatus 600. That is, the comment table stored in the comment storage unit 702 is as shown in FIG. Therefore, detailed description of the comment table stored in the comment storage unit 702 is omitted.

動画ジャンル記憶部703は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。動画ジャンル記憶部703は、動画ジャンルテーブルを記憶する。図15は、動画ジャンルテーブルの概略を示す図である。動画ジャンルテーブルは、動画ジャンルと、動画ジャンルに属する動画データの動画IDと、を対応付けたレコード66を複数有する。動画ジャンルとは、動画の内容や生成過程などに基づいた動画の分類である。動画ジャンルに対する動画IDの振り分けは、人間の作業によって作業者の印象などにたよって行われても良いし、動画に過去に投稿されたコメントやタグ等の付加情報を解析する装置によって自動的に行われても良い。また、一つの動画IDが複数の動画ジャンルに属してもよい。   The moving picture genre storage unit 703 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The moving image genre storage unit 703 stores a moving image genre table. FIG. 15 is a diagram showing an outline of the moving image genre table. The moving image genre table includes a plurality of records 66 in which a moving image genre is associated with a moving image ID of moving image data belonging to the moving image genre. The moving image genre is a moving image classification based on moving image content, generation process, or the like. The distribution of the video ID to the video genre may be performed according to the impression of the worker by human work, or automatically by a device that analyzes additional information such as comments and tags posted in the past on the video. It may be done. One moving image ID may belong to a plurality of moving image genres.

共起指数算出部704は、カテゴリ定義テーブル、コメントテーブル及び動画ジャンルテーブルに基づいて、コメントテーブルに登録されているコメント毎にメインコメントとの共起指数を算出する。共起指数とは、一のコメントと他のコメントとが同一の動画像において同一のタイミングで共に出現する程度を表す値である。共起指数算出部704は、コメント毎に、各メインコメントとの共起指数を算出する。以下、共起指数算出部704の処理の具体例について説明する。   The co-occurrence index calculation unit 704 calculates a co-occurrence index with the main comment for each comment registered in the comment table based on the category definition table, the comment table, and the moving image genre table. The co-occurrence index is a value indicating the degree to which one comment and another comment appear together at the same timing in the same moving image. The co-occurrence index calculation unit 704 calculates a co-occurrence index with each main comment for each comment. Hereinafter, a specific example of the process of the co-occurrence index calculation unit 704 will be described.

共起指数算出部704は、まず動画ジャンルテーブルに基づいて、一つの動画ジャンルを選択する。次に、共起指数算出部704は、選択した動画ジャンルに属する動画を一つ選択し、選択した動画のコメントテーブルを参照する。次に、共起指数算出部704は、参照しているコメントテーブルについて、動画再生時間について再生開始時点から所定の時間幅(例えば5秒、10秒、30秒、1分)に投稿されたコメント毎に、各コメントカテゴリのメインコメントとの共起指数を算出する。共起指数算出部704は、算出された共起指数を、そのコメントカテゴリに対する共起指数として取得する。一つのコメントカテゴリに対して複数のメインコメントが対応づけられている場合には、共起指数算出部704は、各メインコメントとの共起指数の合計値を、そのコメントカテゴリに対する共起指数として取得する。   The co-occurrence index calculation unit 704 first selects one video genre based on the video genre table. Next, the co-occurrence index calculation unit 704 selects one moving image belonging to the selected moving image genre, and refers to the comment table of the selected moving image. Next, the co-occurrence index calculation unit 704 adds a comment posted within a predetermined time width (for example, 5 seconds, 10 seconds, 30 seconds, 1 minute) from the playback start time for the movie playback time for the referenced comment table. Each time, the co-occurrence index with the main comment of each comment category is calculated. The co-occurrence index calculation unit 704 acquires the calculated co-occurrence index as a co-occurrence index for the comment category. When a plurality of main comments are associated with one comment category, the co-occurrence index calculation unit 704 uses the total value of the co-occurrence indices with each main comment as the co-occurrence index for the comment category. get.

図16は、共起指数の概念を示す図である。図16に示される円はコメントカテゴリの領域を示す。中心点41(41−1〜41−3)は、各コメントカテゴリの領域の中心点を示す。点42は、あるコメントの位置を表す。点42と、各コメントカテゴリの領域の中心点41との距離l(l1〜l3)は、点42のコメントとそれぞれのコメントカテゴリとの共起指数の逆数を表す。   FIG. 16 is a diagram illustrating the concept of the co-occurrence index. A circle shown in FIG. 16 indicates a comment category area. The center point 41 (41-1 to 41-3) indicates the center point of each comment category area. A point 42 represents the position of a certain comment. The distance l (11 to 13) between the point 42 and the center point 41 of each comment category region represents the reciprocal of the co-occurrence index between the comment at the point 42 and each comment category.

共起指数の値が大きいほど、距離lは小さくなり、コメントがそのコメントカテゴリのメインコメントと共起しやすいことを示す。すなわち、共起指数の値が大きいほど、コメントがそのコメントカテゴリの要素の度合いが高い動画に投稿される傾向が強いことを示す。共起指数の値が小さいほど、距離lは大きくなり、コメントがそのコメントカテゴリのメインコメントと共起しにくいことを示す。すなわち、共起指数の値が小さいほど、コメントがそのコメントカテゴリの要素の度合いが高い動画に投稿される傾向が弱いことを示す。   The larger the value of the co-occurrence index, the smaller the distance l, indicating that the comment is likely to co-occur with the main comment of the comment category. That is, the larger the value of the co-occurrence index, the stronger the tendency that the comment is posted on a moving image having a higher degree of elements in the comment category. The smaller the value of the co-occurrence index, the greater the distance l, indicating that the comment is less likely to co-occur with the main comment in that comment category. That is, the smaller the value of the co-occurrence index, the weaker the tendency of comments to be posted to a moving image having a higher degree of elements in the comment category.

例えば、図16に示される点42で示されるコメントは、笑いの要素が最も強く、次に興奮の要素が強く、悲しみの要素は弱い。
共起指数算出部704は、選択した動画の動画再生時間の最初から最後に至るまで上記の処理を繰り返し実行し、コメントとコメントカテゴリとの組み合わせ毎に共起指数の統計値(例えば平均値や最頻値や合計値)を算出する。共起指数算出部704は、選択した動画ジャンルに属する動画全てに対して上記の処理を実行し、コメントとコメントカテゴリとの組み合わせ毎に共起指数の統計値(例えば平均値や最頻値や合計値)を算出する。
For example, the comment indicated by the point 42 shown in FIG. 16 has the strongest laughing element, the strongest excitement element, and the weak sadness element.
The co-occurrence index calculation unit 704 repeatedly executes the above processing from the beginning to the end of the video playback time of the selected video, and for each combination of comment and comment category, a statistical value of the co-occurrence index (for example, an average value or Mode and total value). The co-occurrence index calculation unit 704 performs the above-described processing on all the videos belonging to the selected video genre, and the co-occurrence index statistical values (for example, the average value, the mode value, (Total value) is calculated.

また、共起指数算出部704は、動画ジャンル毎に、各コメントの出現回数を計数する。そして、共起指数算出部704は、コメント毎に、各コメントカテゴリのパラメータを決定する。例えば、コメントカテゴリ毎の共起指数が、そのコメント(文字列)が入力される際の動画の要素の割合を示すパラメータ(例えばC1〜C3)となる。また、出現回数が、そのコメント(文字列)が入力される頻度を表すパラメータ(例えばN)となる。   In addition, the co-occurrence index calculation unit 704 counts the number of appearances of each comment for each video genre. Then, the co-occurrence index calculation unit 704 determines parameters for each comment category for each comment. For example, the co-occurrence index for each comment category is a parameter (for example, C1 to C3) indicating the ratio of moving image elements when the comment (character string) is input. Further, the number of appearances is a parameter (for example, N) indicating the frequency with which the comment (character string) is input.

このような処理によって、共起指数算出部704は、動画ジャンル毎に、各コメントのパラメータテーブルを生成する。例えば図16に示される点42で示されるコメントの場合、パラメータC1が最も高く、パラメータC2が2番目に高く、パラメータC3が最も小さくなる。   Through such processing, the co-occurrence index calculation unit 704 generates a parameter table for each comment for each moving image genre. For example, in the case of a comment indicated by a point 42 shown in FIG. 16, the parameter C1 is the highest, the parameter C2 is the second highest, and the parameter C3 is the smallest.

パラメータ記憶部705は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。パラメータ記憶部705は、共起指数算出部704によって生成されたパラメータテーブルを記憶する。   The parameter storage unit 705 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The parameter storage unit 705 stores the parameter table generated by the co-occurrence index calculation unit 704.

分類部706は、パラメータ記憶部705に記憶されるパラメータテーブルに基づいて、コメントをコメントカテゴリに分類する。分類部706は、分類結果に基づいて、コメントカテゴリテーブルを生成する。例えば、分類部706は、コメントの最も高い共起指数に対応するコメントカテゴリにコメントを分類する。例えば、図16の場合、点42で示されるコメントは、笑いのコメントカテゴリに分類される。分類部706は、生成したコメントカテゴリテーブルをコメントカテゴリ記憶部707に記録する。   The classification unit 706 classifies comments into comment categories based on the parameter table stored in the parameter storage unit 705. The classification unit 706 generates a comment category table based on the classification result. For example, the classification unit 706 classifies comments into comment categories corresponding to the co-occurrence index with the highest comment. For example, in the case of FIG. 16, the comment indicated by the point 42 is classified into the comment category of laughter. The classification unit 706 records the generated comment category table in the comment category storage unit 707.

コメントカテゴリ記憶部707は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。コメントカテゴリ記憶部707は、分類部706によって生成されたコメントカテゴリテーブルを記憶する。   The comment category storage unit 707 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The comment category storage unit 707 stores the comment category table generated by the classification unit 706.

このように構成されたコメント分類装置700によれば、自動的にコメントをコメントカテゴリに分類し、コメントカテゴリテーブルを生成することが可能となる。コメント分類装置700によって生成されたコメントカテゴリテーブルは、端末装置100(100a、100b)によって使用されても良いし、係数情報生成装置600によって使用されても良い。   According to the comment classification device 700 configured as described above, it is possible to automatically classify comments into comment categories and generate a comment category table. The comment category table generated by the comment classification device 700 may be used by the terminal device 100 (100a, 100b) or may be used by the coefficient information generation device 600.

また、コメント分類装置700によれば、自動的にコメントのパラメータを決定し、パラメータテーブルを生成することが可能となる。コメント分類装置700によって生成されたパラメータテーブルは、入力候補サーバ200によって端末装置100bに配信されても良いし、端末装置100bによって予め記憶されていても良い。   Further, according to the comment classification device 700, it is possible to automatically determine a comment parameter and generate a parameter table. The parameter table generated by the comment classification device 700 may be distributed to the terminal device 100b by the input candidate server 200, or may be stored in advance by the terminal device 100b.

[第三実施形態]
次に、端末装置100の第三実施形態(端末装置100c)について説明する。第三実施形態では、所定の時間毎に所定数の入力候補が予め定義されている。
図17は、端末装置100の第三実施形態(端末装置100c)の機能構成を表す概略ブロック図である。端末装置100cは、記憶部106に代えて記憶部106cを備える点、選択部107に代えて選択部107cを備える点で、第一実施形態の端末装置100aと異なり、他の構成は第一実施形態の端末装置100aと同じである。以下、第三実施形態の端末装置100cについて、第一実施形態の端末装置100aと異なる点について説明する。
[Third embodiment]
Next, a third embodiment (terminal device 100c) of the terminal device 100 will be described. In the third embodiment, a predetermined number of input candidates are defined in advance every predetermined time.
FIG. 17 is a schematic block diagram illustrating a functional configuration of the third embodiment (terminal device 100 c) of the terminal device 100. The terminal device 100c is different from the terminal device 100a of the first embodiment in that it includes a storage unit 106c instead of the storage unit 106, and includes a selection unit 107c instead of the selection unit 107. It is the same as the terminal device 100a of the embodiment. Hereinafter, the difference between the terminal device 100c of the third embodiment and the terminal device 100a of the first embodiment will be described.

記憶部106cは、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部106cは、入力候補テーブルを記憶する。図18は、第三実施形態において用いられる入力候補テーブルの概略を示す図である。第三実施形態における入力候補テーブルは、所定の間隔(例えば5秒間)に区切られた動画再生時間と、入力候補となる文字列とを対応付けた複数のレコード67を有する。図18に示す具体例では、レコード67は、3つの入力候補(第一候補、第二候補、第三候補)を有する。入力候補テーブルは、動画毎(動画ID毎)に生成されたテーブルである。レコード67に記録される第一候補〜第三候補は、そのレコード67の動画再生時間にユーザが入力する傾向の高い文字列である。レコード67が有する第一候補〜第三候補の文字列は、動画再生時間に示される時間の間に入力候補としてユーザに提供される。   The storage unit 106c is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The storage unit 106c stores an input candidate table. FIG. 18 is a diagram showing an outline of an input candidate table used in the third embodiment. The input candidate table in the third embodiment includes a plurality of records 67 in which moving image playback times divided at predetermined intervals (for example, 5 seconds) are associated with character strings that are input candidates. In the specific example shown in FIG. 18, the record 67 has three input candidates (first candidate, second candidate, and third candidate). The input candidate table is a table generated for each moving image (for each moving image ID). The first to third candidates recorded in the record 67 are character strings that are likely to be input by the user during the video playback time of the record 67. The first to third candidate character strings included in the record 67 are provided to the user as input candidates during the time indicated by the moving image playback time.

例えば、動画再生時間が0:00:00(0時間0分0秒)から0:00:05(0時間0分5秒)の間は、“888888”、“青い”、“帰ってきた・・”という3つの文字列が入力候補としてユーザに提供される。動画再生時間が0:00:05(0時間0分5秒)から0:00:10(0時間0分10秒)の間は、“乙かれ”、“地球か。”、“弾幕”という3つの文字列が入力候補としてユーザに提供される。動画再生時間が0:00:10(0時間0分10秒)から0:00:15(0時間0分15秒)の間は、“wwww”、“何もかもみな懐かしい。”、“42”という3つの文字列が入力候補としてユーザに提供される。   For example, between 0:00:00 (0 hour 0 minute 0 second) and 0:00:05 (0 hour 0 minute 5 second), “888888”, “blue”, “returned” Three character strings “” are provided to the user as input candidates. Between 0:00:05 (0 hour, 0 minute, 5 seconds) and 0:00:10 (0 hour, 0 minute, 10 seconds), the video playback time is “Otokare”, “Earth?”, “Barrage” Three character strings are provided to the user as input candidates. Between 0:00:10 (0 hours 0 minutes 10 seconds) and 0:00:15 (0 hours 0 minutes 15 seconds), “www”, “everything is nostalgic”, “42” Three character strings are provided to the user as input candidates.

入力候補テーブルはどのような処理によって生成されても良い。入力候補テーブルは、例えば動画に過去に投稿されたコメントを解析することによって作成される。入力候補テーブルは、動画に過去に投稿されたコメントを人間が解析することによって作成されても良いし、動画に過去に投稿されたコメントを解析する装置によって自動的に作成されても良い。また、入力候補テーブルは、動画に過去に投稿されたコメントにかかわらず、人間の作業によって作業者の勘などにたよって作成されても良い。   The input candidate table may be generated by any process. The input candidate table is created, for example, by analyzing comments posted in the past on moving images. The input candidate table may be created by a human analyzing a comment posted in the past on a moving image, or may be automatically created by a device that analyzes a comment posted in the past on a moving image. Further, the input candidate table may be created based on the intuition of the operator by human work, regardless of comments posted in the past on the moving image.

図17に戻って端末装置100cの構成の説明を続ける。選択部107cは、動画再生部104によって要求される動画データに対応した入力候補テーブルを要求するためのデータ(入力候補要求データ)を生成する。入力候補要求データは、例えば動画データを特定するための識別情報(動画ID)を含む。選択部107cは、通信部103を介して入力候補サーバ200に対し入力候補要求データを送信する。入力候補サーバ200は、入力候補要求データを受信すると、受信した入力候補要求データに含まれる動画IDに対応する入力候補テーブルを読み出し、読み出した入力候補テーブルを要求元の端末装置100cへ送信する。選択部107cは、入力候補要求データに応じて入力候補サーバ200から送信される入力候補テーブルを、通信部103を介して受け、記憶部106cに記録する。   Returning to FIG. 17, the description of the configuration of the terminal device 100c will be continued. The selection unit 107c generates data (input candidate request data) for requesting an input candidate table corresponding to the moving image data requested by the moving image reproducing unit 104. The input candidate request data includes, for example, identification information (moving image ID) for specifying moving image data. The selection unit 107 c transmits input candidate request data to the input candidate server 200 via the communication unit 103. When receiving the input candidate request data, the input candidate server 200 reads an input candidate table corresponding to the moving image ID included in the received input candidate request data, and transmits the read input candidate table to the requesting terminal device 100c. The selection unit 107c receives the input candidate table transmitted from the input candidate server 200 according to the input candidate request data via the communication unit 103, and records it in the storage unit 106c.

選択部107cは、動画再生部104によって再生されている動画データの再生時間(動画再生時間)に応じて、記憶部106cの入力候補テーブルから1又は複数の文字列を読み出す。具体的には以下の通りである。選択部107cは、動画再生部104から動画再生時間を取得する。選択部107cは、取得した動画再生時間に対応する動画再生時間の値を有したレコード67を検索する。選択部107cは、検索によって得られたレコード67の第一候補、第二候補及び第三候補の文字列を、入力候補として選択する。選択部107cは、選択した文字列を出力部102に入力候補として表示させる。   The selection unit 107c reads one or more character strings from the input candidate table of the storage unit 106c in accordance with the reproduction time (moving image reproduction time) of the moving image data being reproduced by the moving image reproducing unit 104. Specifically, it is as follows. The selection unit 107 c acquires the moving image reproduction time from the moving image reproduction unit 104. The selection unit 107c searches for a record 67 having a moving image reproduction time value corresponding to the acquired moving image reproduction time. The selection unit 107c selects the first candidate, the second candidate, and the third candidate character string of the record 67 obtained by the search as input candidates. The selection unit 107c causes the output unit 102 to display the selected character string as an input candidate.

図19は、第三実施形態における出力部102によって表示される画面20の具体例を示す図である。画面20は、動画表示領域210及び入力用表示領域220を有する。以下、各領域について説明する。
動画表示領域210には、動画再生部104によって再生される動画データの映像と、動画に対して投稿されたコメントの文字列とが表示される。入力用表示領域220には、複数の入力候補ボタン25(25−1〜25−9)が表示される。ユーザが入力部101を操作することによって入力候補ボタン25に対する操作(クリック、タップ等)を行うと、コメント制御部105は、操作された入力候補ボタン25の文字列(コメントの文字列)と、その時点の動画再生時間と、再生されている動画の動画IDと、を取得する。コメント制御部105は、取得したコメントの文字列と、動画再生時間と、動画IDとを対応付けて、コメント投稿データを作成する。そして、コメント制御部105は、作成したコメント投稿データを、通信部103を介してコメントサーバ400へ送信する。コメントサーバ400は、受信したコメント投稿データのコメントの文字列及び動画再生時間を、動画IDに対応するコメントテーブルに登録する。
FIG. 19 is a diagram illustrating a specific example of the screen 20 displayed by the output unit 102 in the third embodiment. The screen 20 has a moving image display area 210 and an input display area 220. Hereinafter, each region will be described.
In the moving image display area 210, a video of moving image data reproduced by the moving image reproducing unit 104 and a character string of a comment posted on the moving image are displayed. In the input display area 220, a plurality of input candidate buttons 25 (25-1 to 25-9) are displayed. When the user performs an operation (click, tap, etc.) on the input candidate button 25 by operating the input unit 101, the comment control unit 105 displays the character string (comment character string) of the operated input candidate button 25, The video playback time at that time and the video ID of the video being played back are acquired. The comment control unit 105 creates comment posting data by associating the acquired character string of the comment, the moving image playback time, and the moving image ID. Then, the comment control unit 105 transmits the created comment posting data to the comment server 400 via the communication unit 103. The comment server 400 registers the comment character string and the moving image playback time of the received comment posting data in the comment table corresponding to the moving image ID.

入力候補ボタン25(25−1〜25−9)には、選択部107cによって入力候補として選択された文字列の所定数の履歴が表示される。例えば、入力用表示領域220の右側に縦に並ぶ3つの入力候補ボタン25−1〜25−3は、現在のタイミングで選択されている第一候補〜第三候補の文字列を入力するためのボタンである。上段の入力候補ボタン25−1には第一候補の文字列が表示され、中段の入力候補ボタン25−2には第二候補の文字列が表示され、下段の入力候補ボタン25−3には第三候補の文字列が表示される。また、入力用表示領域220の中央に縦に並ぶ3つの入力候補ボタン25−4〜25−6は、1つ前のタイミングで選択された第一候補〜第三候補の文字列を入力するためのボタンである。上段の入力候補ボタン25−4には第一候補の文字列が表示され、中段の入力候補ボタン25−5には第二候補の文字列が表示され、下段の入力候補ボタン25−6には第三候補の文字列が表示される。また、入力用表示領域220の左側に縦に並ぶ3つの入力候補ボタン25−7〜25−9は、2つ前のタイミングで選択された第一候補〜第三候補の文字列を入力するためのボタンである。上段の入力候補ボタン25−7には第一候補の文字列が表示され、中段の入力候補ボタン25−8には第二候補の文字列が表示され、下段の入力候補ボタン25−9には第三候補の文字列が表示される。   The input candidate buttons 25 (25-1 to 25-9) display a predetermined number of histories of character strings selected as input candidates by the selection unit 107c. For example, the three input candidate buttons 25-1 to 25-3 arranged vertically on the right side of the input display area 220 are used for inputting the first to third candidate character strings selected at the current timing. Button. The first candidate character string is displayed on the upper input candidate button 25-1, the second candidate character string is displayed on the middle input candidate button 25-2, and the lower input candidate button 25-3 is displayed on the lower input candidate button 25-3. The third candidate character string is displayed. Further, the three input candidate buttons 25-4 to 25-6 vertically arranged in the center of the input display area 220 are used to input the first to third candidate character strings selected at the previous timing. It is a button. The first candidate character string is displayed on the upper input candidate button 25-4, the second candidate character string is displayed on the middle input candidate button 25-5, and the lower input candidate button 25-6 is displayed on the lower input candidate button 25-6. The third candidate character string is displayed. The three input candidate buttons 25-7 to 25-9 arranged vertically on the left side of the input display area 220 are for inputting the character strings of the first candidate to the third candidate selected at the previous timing. It is a button. The first candidate character string is displayed on the upper input candidate button 25-7, the second candidate character string is displayed on the middle input candidate button 25-8, and the lower input candidate button 25-9 is displayed on the lower input candidate button 25-9. The third candidate character string is displayed.

図19に示す具体例は、動画再生時間が0:00:10から0:00:15までの間の表示例を示す。この場合、現在の時点で入力候補テーブルに基づいて検索された第一候補“wwww”、第二候補“何もかもみな懐かしい”、第三候補“42”が、それぞれ入力候補ボタン25−1〜25−3に表示される。1つ前のタイミング(0:00:05から0:00:10までの間)で入力候補テーブルに基づいて検索された第一候補“乙かれ”、第二候補“地球か。”、第三候補“弾幕”が、それぞれ入力候補ボタン25−4〜25−6に表示される。2つ前のタイミング(0:00:00から0:00:05までの間)で入力候補テーブルに基づいて検索された第一候補“888888”、第二候補“青い”、第三候補“帰ってきた・・”が、それぞれ入力候補ボタン25−7〜25−9に表示される。
なお、所定数以上(例えば7文字以上)の文字列の入力候補については、文字列の全てを表示せず、その一部のみが表示されても良い。
The specific example shown in FIG. 19 shows a display example in which the moving image playback time is from 0:00:10 to 0:00:15. In this case, the first candidate “www”, the second candidate “everything is missing”, and the third candidate “42” searched based on the input candidate table at the current time point are input candidate buttons 25-1 to 25-, respectively. 3 is displayed. First candidate “Otsukare”, second candidate “Earth?”, Third, searched based on input candidate table at previous timing (between 0:00:05 and 0:00:10), third Candidate “barrages” are displayed on the input candidate buttons 25-4 to 25-6, respectively. The first candidate “888888”, the second candidate “blue”, and the third candidate “returned” searched based on the input candidate table at the previous timing (between 0:00:00 and 0:00:05) "..." is displayed on the input candidate buttons 25-7 to 25-9, respectively.
It should be noted that for character string input candidates of a predetermined number or more (for example, 7 characters or more), not all of the character strings may be displayed but only a part thereof may be displayed.

このように構成された第三実施形態の端末装置100cでは、動画再生部104によって再生される動画データの再生開始からの経過時間(動画再生時間)に応じて、その動画再生時間に入力される傾向の高い文字列が選択部107cによって選択される。そして、選択部107cによって選択された文字列が、入力候補としてユーザに提供される。このように、動画再生時間毎に入力される傾向の高い文字列が入力候補として提供されるため、より精度の高い入力候補を提示することが可能となる。   In the terminal device 100c of the third embodiment configured as described above, the moving image playback time is input according to the elapsed time (moving image playback time) from the start of playback of the moving image data played back by the moving image playback unit 104. A character string having a high tendency is selected by the selection unit 107c. Then, the character string selected by the selection unit 107c is provided to the user as an input candidate. As described above, since a character string having a high tendency to be input every moving image playback time is provided as an input candidate, it is possible to present an input candidate with higher accuracy.

また、第三実施形態の端末装置100cでは、過去のタイミングで選択された入力候補の文字列のボタンが表示される。そのため、ユーザに対し、様々なバリエーションの入力候補を提示することが可能となる。   In addition, in the terminal device 100c of the third embodiment, a button of a character string of input candidates selected at a past timing is displayed. Therefore, it is possible to present various variations of input candidates to the user.

<変形例>
図18に示す入力候補テーブルの具体例では、各レコード67は3つの入力候補(第一候補〜第三候補)を有しているが、入力候補の数は3に限定されない。各レコード67は、1つの入力候補を有しても良いし、2つの入力候補を有しても良いし、4以上の入力候補を有しても良い。また、レコード67毎に入力候補の数が異なっても良い。
図19に示す入力用表示領域220では、現在から2つ前のタイミングまでの選択履歴が入力候補ボタン25として表示される。しかし、表示される入力候補ボタン25は、現在及び1つ前のタイミングの選択履歴であっても良いし、さらに遠い過去のタイミングの選択履歴であっても良い。
<Modification>
In the specific example of the input candidate table shown in FIG. 18, each record 67 has three input candidates (first candidate to third candidate), but the number of input candidates is not limited to three. Each record 67 may have one input candidate, two input candidates, or four or more input candidates. Further, the number of input candidates may be different for each record 67.
In the input display area 220 shown in FIG. 19, selection histories from the present to the previous two timings are displayed as input candidate buttons 25. However, the displayed input candidate button 25 may be a selection history at the current and previous timing, or may be a selection history at a farther past timing.

[入力候補テーブル生成装置]
図20は、端末装置100c(第三実施形態)において用いられる入力候補テーブルを生成する入力候補テーブル生成装置800の機能構成を表す概略ブロック図である。入力候補テーブル生成装置800は、バスで接続されたCPUやメモリや補助記憶装置などを備え、プログラムを実行する。プログラムの実行により、入力候補テーブル生成装置800は、コメント記憶部801、クラスタ生成部802、テーブル生成部803、テーブル記憶部804を備える装置として機能する。なお、入力候補テーブル生成装置800の各機能の全て又は一部は、ASICやPLDやFPGA等のハードウェアを用いて実現されても良い。入力候補テーブル生成装置800が実行するプログラムは、コンピュータ読み取り可能な記録媒体に記録されても良い。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。入力候補テーブル生成装置800が実行するプログラムは、電気通信回線を介して送信されても良い。
[Input candidate table generator]
FIG. 20 is a schematic block diagram illustrating a functional configuration of an input candidate table generation device 800 that generates an input candidate table used in the terminal device 100c (third embodiment). The input candidate table generation device 800 includes a CPU, a memory, an auxiliary storage device, and the like connected by a bus, and executes a program. By executing the program, the input candidate table generation device 800 functions as a device including a comment storage unit 801, a cluster generation unit 802, a table generation unit 803, and a table storage unit 804. Note that all or part of the functions of the input candidate table generation apparatus 800 may be realized using hardware such as an ASIC, PLD, or FPGA. The program executed by the input candidate table generation device 800 may be recorded on a computer-readable recording medium. The computer-readable recording medium is, for example, a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in the computer system. The program executed by the input candidate table generation device 800 may be transmitted via a telecommunication line.

コメント記憶部801は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。コメント記憶部801は、動画データ毎にコメントテーブルを記憶する。コメント記憶部801が記憶するコメントテーブルは、図12に示される通りである。コメントテーブルは、動画データに投稿されたコメントと、コメントが投稿された時点の動画再生時間とを対応付けたレコード64を複数有する。   The comment storage unit 801 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The comment storage unit 801 stores a comment table for each moving image data. The comment table stored in the comment storage unit 801 is as shown in FIG. The comment table includes a plurality of records 64 in which a comment posted to the moving image data is associated with a moving image playback time at the time when the comment is posted.

クラスタ生成部802は、コメントテーブルに基づいて、動画データ毎にコメントをクラスタリングする。例えば、クラスタ生成部802は、所定の時間幅(例えば1秒、5秒、10秒など)毎に、その間に投稿されたコメントをコメントテーブルから取得する。次に、クラスタ生成部802は、取得したコメントを、文字列の類似性や意味の類似性などに基づいてクラスタリングする。   The cluster generation unit 802 clusters comments for each moving image data based on the comment table. For example, the cluster generation unit 802 acquires comments posted during a predetermined time width (for example, 1 second, 5 seconds, 10 seconds, etc.) from the comment table. Next, the cluster generation unit 802 clusters the acquired comments based on the similarity of character strings, the similarity of meaning, and the like.

図21は、クラスタ生成部802のクラスタリング処理の一例を示す図である。以下、クラスタ生成部802が行うクラスタリング処理の一例について、図21を用いて説明する。なお、クラスタ生成部802が行うクラスタリング処理は以下の説明に限定される必要は無く、動画データ毎にコメントをクラスタリングできればどのように行われても良い。
図21に示される各文字列は、それぞれある動画データの所定の時間の間に投稿されたコメントである。クラスタ生成部802は、投稿されたコメントのうち、非適合コメント以外のコメントでクラスタを生成する。非適合コメントは、クラスタに含まれるコメントとしての条件を満たしていないコメントである。非適合コメントは、例えば所定の文字数(例えば2個)以下のコメント、所定の文字数(例えば20個)以上のコメント、所定の文字(例えば“w”)のみから構成されるコメントなどである。例えば、図21に示される“ww”は非適合コメントである。
FIG. 21 is a diagram illustrating an example of the clustering process of the cluster generation unit 802. Hereinafter, an example of the clustering process performed by the cluster generation unit 802 will be described with reference to FIG. The clustering process performed by the cluster generation unit 802 is not limited to the following description, and may be performed in any manner as long as comments can be clustered for each moving image data.
Each character string shown in FIG. 21 is a comment posted during a predetermined time of certain moving image data. The cluster generation unit 802 generates a cluster with comments other than non-conforming comments among the posted comments. The non-conforming comment is a comment that does not satisfy the condition as a comment included in the cluster. Non-conforming comments are, for example, comments of a predetermined number of characters (for example, 2) or less, comments of a predetermined number of characters (for example, 20) or more, comments composed of only predetermined characters (for example, “w”), and the like. For example, “www” shown in FIG. 21 is a non-conforming comment.

クラスタ生成部802は、一方の文字列が他方に全て含まれている場合に、それらのコメントを、同一のクラスタに含まれるコメントとして選択する。例えば、“ahoge”と“hoge”とは、“hoge”という4文字が“ahoge”に含まれているため、同一のクラスタとして選択され、リンクで接続される。“foo”と“foobar”とは、“foo”という2文字が“foobar”に含まれているため、同一のクラスタとして選択され、リンクで接続される。このようにしてリンクで接続された一群のコメントがクラスタ81(81−1〜81−4)である。
“fight”は、他のコメントの文字列を含むことも他のコメントの文字列に含まれることも無いため、他のコメントと同じクラスタには選択されない。したがって、“fight”を含むクラスタ81−3は、“fight”のみを有する。“huge”が属するクラスタ81−4も同様に、“huge”のみを有する。なお、各コメントの左にコロン“:”を挟んで示される数字は、同一のコメントの個数を示す。例えば、“hoge”というコメントは、処理対象となっている動画データの所定の時間幅の間に、2回投稿されている。
The cluster generation unit 802 selects the comments as comments included in the same cluster when one character string is all included in the other. For example, “ahoge” and “hoge” are selected as the same cluster and connected by a link because four characters “hoge” are included in “ahoge”. “Foo” and “foobar” are selected as the same cluster and connected by a link because two characters “foo” are included in “foobar”. A group of comments connected by links in this way is a cluster 81 (81-1 to 81-4).
Since “fight” does not include the character string of another comment or is not included in the character string of another comment, “fight” is not selected for the same cluster as other comments. Therefore, the cluster 81-3 including “fight” has only “fight”. Similarly, the cluster 81-4 to which “huge” belongs has only “huge”. Note that the number shown with a colon “:” on the left of each comment indicates the number of the same comment. For example, the comment “hoge” is posted twice during a predetermined time width of the moving image data to be processed.

図20に戻って入力候補テーブル生成装置800の説明を続ける。テーブル生成部803は、クラスタ生成部802によって行われたクラスタリングの結果に基づいて、入力候補テーブルを生成する。例えば、テーブル生成部803は、クラスタに含まれるコメント(以下、「クラスタ要素」という。)の数が多い順に所定数(例えば3つ)のクラスタを選択する。テーブル生成部803は、選択した各クラスタの主要素のコメントを入力候補として選択する。主要素とは、個数が最も多いクラスタ要素のことである。例えば図21に示されるクラスタの具体例では、クラスタ81−1のクラスタ要素のうち“hogeww”が最も多く投稿されている。そのため、クラスタ81−1では“hogeww”が主要素である。クラスタ81−2では、“foobar”が主要素である。なお、円から外れた位置に示される主要素の文字列の左にコロン“:”を挟んで示される数字は、クラスタ81に含まれるコメントの総数(クラスタ要素の総数)を表す。   Returning to FIG. 20, the description of the input candidate table generation device 800 will be continued. The table generation unit 803 generates an input candidate table based on the result of clustering performed by the cluster generation unit 802. For example, the table generation unit 803 selects a predetermined number (for example, three) of clusters in descending order of the number of comments (hereinafter referred to as “cluster elements”) included in the cluster. The table generation unit 803 selects a comment of the main element of each selected cluster as an input candidate. The main element is a cluster element having the largest number. For example, in the specific example of the cluster shown in FIG. 21, “hogeww” is posted most frequently among the cluster elements of the cluster 81-1. Therefore, in the cluster 81-1, “hogeww” is the main element. In cluster 81-2, “foobar” is the main element. Note that the number shown with a colon “:” on the left of the character string of the main element shown at a position off the circle represents the total number of comments included in the cluster 81 (the total number of cluster elements).

テーブル生成部803は、選択した所定数のクラスタの主要素と、処理対象となっている動画再生時間の時間幅とを対応付けて、入力候補テーブルのレコード67を生成する。テーブル生成部803は、処理対象となっている動画データの全動画再生時間にわたってレコード67を生成することによって、処理対象となっている動画データの入力候補テーブルを生成する。テーブル生成部803は、生成した入力候補テーブルをテーブル記憶部804に記録する。
テーブル記憶部804は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。テーブル記憶部804は、テーブル生成部803によって生成された入力候補テーブルを記憶する。
The table generation unit 803 generates a record 67 of the input candidate table by associating the main elements of the selected predetermined number of clusters with the time width of the moving image playback time to be processed. The table generation unit 803 generates an input candidate table of moving image data to be processed by generating the record 67 over the entire moving image playback time of the moving image data to be processed. The table generation unit 803 records the generated input candidate table in the table storage unit 804.
The table storage unit 804 is configured using a storage device such as a magnetic hard disk device or a semiconductor storage device. The table storage unit 804 stores the input candidate table generated by the table generation unit 803.

このように構成された入力候補テーブル生成装置800では、動画データに過去に投稿されたコメントに基づいて、動画再生時間の時間幅毎に、投稿された回数の多いコメントを入力候補として選択することが可能となる。そのため、端末装置100cにおいて精度良く入力候補を提供可能となるような入力候補テーブルを生成することができる。   In the input candidate table generation device 800 configured as described above, a comment with a large number of posted times is selected as an input candidate for each time duration of the video playback time based on comments posted in the past on the video data. Is possible. Therefore, it is possible to generate an input candidate table that can provide input candidates with high accuracy in the terminal device 100c.

また、各クラスタから主要素のコメントが入力候補として選択され、入力候補テーブルが生成される。そのため、類似したコメントがレコード67に複数含まれてしまうことを抑止し、時間幅毎に提供される入力候補のコメントの多様性を高めることが可能となる。   In addition, a comment of the main element is selected as an input candidate from each cluster, and an input candidate table is generated. For this reason, it is possible to suppress a plurality of similar comments from being included in the record 67 and to increase the diversity of comments of input candidates provided for each time width.

また、除去コメントを除去してクラスタを生成することによって、実際には大きく異なるコメント同士を同一のクラスタに含めてしまうことを抑止できる。そのため、異なるコメント同士が異なるクラスタに分けられるため、それぞれの異なるコメントが共に入力候補として選択される可能性を保ち、時間幅毎に提供される入力候補のコメントの多様性を高めることが可能となる。   In addition, by removing the removed comments and generating a cluster, it is possible to prevent comments that are actually significantly different from being included in the same cluster. Therefore, since different comments are divided into different clusters, it is possible to maintain the possibility that each different comment is selected as an input candidate, and to increase the variety of input candidate comments provided for each time span. Become.

<変形例>
テーブル生成部803は、処理対象となっている動画再生時間の時間幅から所定の時間内(例えば10秒以内)のレコード67において選択されたクラスタ内の全てのコメントをを、処理対象となっている動画再生時間のレコード67では入力候補として選択しないように構成されても良い。例えば、動画再生時間“0:00:00”から“0:00:05”までの時間のレコード67において、入力候補として“888888”が選択されている場合、所定の時間内である“0:00:05”から“0:00:10”までの時間のレコード67と、“0:00:10”から“0:00:15”までの時間のレコード67では、テーブル生成部803は、“888888”が所属するクラスタに含まれる全てのコメントを入力候補として選択しない。この場合、テーブル生成部803は、重複したコメントに代えて、他のクラスタの主要素を入力候補として選択する。例えば、テーブル生成部803は、クラスタ要素の数が4番目に多いクラスタの主要素を入力候補として選択しても良い。
このように構成されることによって、時間幅毎に提供される入力候補のコメントの多様性をさらに高めることが可能となる。
<Modification>
The table generation unit 803 selects all comments in the cluster selected in the record 67 within a predetermined time (for example, within 10 seconds) from the time width of the moving image playback time to be processed. It may be configured not to select an input candidate in the moving image playback time record 67. For example, when “888888” is selected as an input candidate in the record 67 of the time from the moving image playback time “0: 00: 00: 00” to “0:00:05”, “0: In the record 67 of the time from “00:05” to “0:00:10” and the record 67 of the time from “0:00:10” to “0:00:15”, the table generating unit 803 displays “ All comments included in the cluster to which “888888” belongs are not selected as input candidates. In this case, the table generation unit 803 selects a main element of another cluster as an input candidate instead of the duplicate comment. For example, the table generation unit 803 may select a main element of a cluster having the fourth largest number of cluster elements as an input candidate.
With this configuration, it is possible to further increase the diversity of input candidate comments provided for each time width.

テーブル生成部803は、処理対象の動画再生時間の時間幅において、同一のユーザによって同一のコメントが複数回投稿されている場合、そのユーザによって投稿された数にかかわらず1つとカウントしても良い。このように構成されることによって、同一のユーザによって多数回投稿されたコメントが、入力候補として選択されることを防止できる。そのため、実際には少数のユーザにしか投稿されていないコメントを入力候補として選択することを防止し、精度の高い入力候補をユーザに提供することが可能となる。   When the same comment is posted a plurality of times by the same user in the duration of the video playback time to be processed, the table generation unit 803 may count as one regardless of the number posted by the user. . With this configuration, it is possible to prevent a comment posted many times by the same user from being selected as an input candidate. Therefore, it is possible to prevent selection of comments that are actually posted by only a small number of users as input candidates, and to provide highly accurate input candidates to the user.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…動画配信システム, 100,100a,100b,100c…端末装置, 200…入力候補サーバ, 300…動画配信サーバ, 400…コメントサーバ, 500…ネットワーク, 101…入力部, 102…出力部, 103…通信部, 104…動画再生部, 105…コメント制御部, 106,106c…記憶部, 106−1…係数情報記憶部, 106−2…パラメータ記憶部, 107,107b,107c…選択部, 20…画面, 210…動画表示領域, 220…入力用表示領域, 22…コメント入力欄, 23…投稿ボタン, 24−1〜24−10…入力候補ボタン, 211…コメントの文字列, 600…係数情報生成装置, 601…コメントカテゴリ記憶部, 602…コメント記憶部, 603…係数情報生成部, 604…係数情報記憶部, 700…コメント分類装置, 701…カテゴリ定義記憶部, 702…コメント記憶部, 703…動画ジャンル記憶部, 704…共起指数算出部, 705…パラメータ記憶部, 706…分類部, 707…コメントカテゴリ記憶部, 800…入力候補テーブル生成装置, 801…コメント記憶部, 802…クラスタ生成部, 803…テーブル生成部, 804…テーブル記憶部, 81−1,81−2,81−3,81−4…クラスタ DESCRIPTION OF SYMBOLS 1 ... Movie delivery system, 100, 100a, 100b, 100c ... Terminal device, 200 ... Input candidate server, 300 ... Movie delivery server, 400 ... Comment server, 500 ... Network, 101 ... Input part, 102 ... Output part, 103 ... Communication unit 104 ... Movie playback unit 105 ... Comment control unit 106 106c Storage unit 106-1 Coefficient information storage unit 106-2 Parameter storage unit 107 107b 107c Selection unit 20 Screen, 210 ... Video display area, 220 ... Display area for input, 22 ... Comment input field, 23 ... Post button, 24-1 to 24-10 ... Input candidate button, 211 ... Comment character string, 600 ... Coefficient information generation Device, 601 ... comment category storage unit, 602 ... comment storage unit, 603 ... coefficient Information generation unit, 604 ... Coefficient information storage unit, 700 ... Comment classification device, 701 ... Category definition storage unit, 702 ... Comment storage unit, 703 ... Movie genre storage unit, 704 ... Co-occurrence index calculation unit, 705 ... Parameter storage unit , 706 ... Classification unit, 707 ... Comment category storage unit, 800 ... Input candidate table generation device, 801 ... Comment storage unit, 802 ... Cluster generation unit, 803 ... Table generation unit, 804 ... Table storage unit, 81-1, 81 -2, 81-3, 81-4 ... Cluster

Claims (5)

出力装置に再生される動画データの再生開始からの経過時間に応じて文字列をユーザの入力候補として選択する選択部
を備える候補選択装置。
A candidate selection device comprising a selection unit that selects a character string as a user input candidate in accordance with an elapsed time from the start of reproduction of moving image data reproduced on an output device.
出力装置に再生される動画データの再生開始からの経過時間に従って変化する係数を取得する係数取得部と、
前記係数取得部によって取得された前記係数に基づいて文字列のスコアを算出するスコア算出部と、をさらに備え、
前記選択部は、前記スコアが高い前記文字列を、ユーザの入力候補の文字列として選択する、請求項1に記載の候補選択装置。
A coefficient acquisition unit that acquires a coefficient that changes in accordance with an elapsed time from the start of reproduction of the moving image data reproduced on the output device;
A score calculation unit that calculates a score of a character string based on the coefficient acquired by the coefficient acquisition unit;
The candidate selection device according to claim 1, wherein the selection unit selects the character string having a high score as a character string of a user input candidate.
前記選択部は、過去に選択された入力候補と現時点で選択された入力候補とを前記出力装置に表示させ、一定の過去において既に選択された入力候補を選択しない、請求項1に記載の候補選択装置。   The candidate according to claim 1, wherein the selection unit causes the output device to display an input candidate selected in the past and an input candidate selected at the present time, and does not select an input candidate already selected in a certain past. Selection device. 出力装置に再生される動画データの再生開始からの経過時間に応じて文字列をユーザの入力候補として選択する選択ステップ
を有する候補選択方法。
A candidate selection method comprising a selection step of selecting a character string as a user input candidate in accordance with an elapsed time from the start of reproduction of moving image data reproduced on an output device.
出力装置に再生される動画データの再生開始からの経過時間に応じて文字列をユーザの入力候補として選択する選択ステップ
をコンピュータに実行させるためのコンピュータプログラム。
A computer program for causing a computer to execute a selection step of selecting a character string as a user input candidate in accordance with an elapsed time from the start of reproduction of moving image data reproduced on an output device.
JP2013091631A 2012-04-24 2013-04-24 Candidate selection device, candidate selection method, and computer program Pending JP2013229873A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201213637469A 2012-04-24 2012-04-24
US61/637,469 2012-04-24

Publications (1)

Publication Number Publication Date
JP2013229873A true JP2013229873A (en) 2013-11-07

Family

ID=49677060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013091631A Pending JP2013229873A (en) 2012-04-24 2013-04-24 Candidate selection device, candidate selection method, and computer program

Country Status (1)

Country Link
JP (1) JP2013229873A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148701A (en) * 2014-02-06 2015-08-20 日本電信電話株式会社 Robot control device, robot control method and robot control program
JP2015211291A (en) * 2014-04-24 2015-11-24 株式会社ドワンゴ Moving image reproduction apparatus, candidate extraction method, and program
JP2015211290A (en) * 2014-04-24 2015-11-24 株式会社ドワンゴ Candidate extraction apparatus, comment distribution system, candidate extraction method, and program
JP2016115134A (en) * 2014-12-15 2016-06-23 株式会社ドワンゴ Information processing apparatus, control method, and program
JP6178941B1 (en) * 2017-03-21 2017-08-09 株式会社ドワンゴ Reaction selection device, reaction selection method, reaction selection program
JP6304847B1 (en) * 2017-04-28 2018-04-04 株式会社コナミデジタルエンタテインメント Server apparatus and computer program used therefor
JP2018525675A (en) * 2015-08-18 2018-09-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and device for generating live text broadcast content using past broadcast text
WO2022180973A1 (en) * 2021-02-26 2022-09-01 株式会社ドワンゴ Comment art management system, comment art management method, comment art management program, and computer-readable recording medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136087A (en) * 1999-11-05 2001-05-18 Matsushita Electric Ind Co Ltd Multiplex broadcast system, receiver, transmitter and multiplex broadcast method
JP2007274090A (en) * 2006-03-30 2007-10-18 Toshiba Corp Content reproducing apparatus, method, and program
JP2008059428A (en) * 2006-09-01 2008-03-13 Mitsubishi Electric Corp Document data management device, document data management method, and program
JP2009212705A (en) * 2008-03-03 2009-09-17 Dowango:Kk Video distributing system, program of terminal device, distributed video reproducing method, and command setting method
JP2009223905A (en) * 2009-05-22 2009-10-01 Sharp Corp Character input device, system, and character input control method
JP2010079577A (en) * 2008-09-25 2010-04-08 Toshiba Corp Text information sharing method, server apparatus, and client apparatus
JP2010081450A (en) * 2008-09-26 2010-04-08 C-Grip:Kk Broadcasting system, method for providing advertisement, and program
JP2011151741A (en) * 2010-01-25 2011-08-04 Nippon Hoso Kyokai <Nhk> Option generation and presentation apparatus and option generation and presentation program
JP2012078897A (en) * 2010-09-30 2012-04-19 Aisin Aw Co Ltd Retrieval supporting apparatus, retrieval supporting method and retrieval supporting program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001136087A (en) * 1999-11-05 2001-05-18 Matsushita Electric Ind Co Ltd Multiplex broadcast system, receiver, transmitter and multiplex broadcast method
JP2007274090A (en) * 2006-03-30 2007-10-18 Toshiba Corp Content reproducing apparatus, method, and program
JP2008059428A (en) * 2006-09-01 2008-03-13 Mitsubishi Electric Corp Document data management device, document data management method, and program
JP2009212705A (en) * 2008-03-03 2009-09-17 Dowango:Kk Video distributing system, program of terminal device, distributed video reproducing method, and command setting method
JP2010079577A (en) * 2008-09-25 2010-04-08 Toshiba Corp Text information sharing method, server apparatus, and client apparatus
JP2010081450A (en) * 2008-09-26 2010-04-08 C-Grip:Kk Broadcasting system, method for providing advertisement, and program
JP2009223905A (en) * 2009-05-22 2009-10-01 Sharp Corp Character input device, system, and character input control method
JP2011151741A (en) * 2010-01-25 2011-08-04 Nippon Hoso Kyokai <Nhk> Option generation and presentation apparatus and option generation and presentation program
JP2012078897A (en) * 2010-09-30 2012-04-19 Aisin Aw Co Ltd Retrieval supporting apparatus, retrieval supporting method and retrieval supporting program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤真広 ET AL.: "「完全保存版 ニコニコ動画のすべて」", 週刊アスキー 第23巻 通巻831号,とじ込み小冊子, vol. 第23巻, JPN6017011572, 25 April 2011 (2011-04-25), JP, pages 4 - 7, ISSN: 0003531196 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148701A (en) * 2014-02-06 2015-08-20 日本電信電話株式会社 Robot control device, robot control method and robot control program
JP2015211291A (en) * 2014-04-24 2015-11-24 株式会社ドワンゴ Moving image reproduction apparatus, candidate extraction method, and program
JP2015211290A (en) * 2014-04-24 2015-11-24 株式会社ドワンゴ Candidate extraction apparatus, comment distribution system, candidate extraction method, and program
JP2016115134A (en) * 2014-12-15 2016-06-23 株式会社ドワンゴ Information processing apparatus, control method, and program
JP2018525675A (en) * 2015-08-18 2018-09-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Method and device for generating live text broadcast content using past broadcast text
JP2018157465A (en) * 2017-03-21 2018-10-04 株式会社ドワンゴ Reaction selection device, reaction selection method, and reaction selection program
WO2018173804A1 (en) * 2017-03-21 2018-09-27 株式会社ドワンゴ Reaction selection device, reaction selection method, and reaction selection program
JP6178941B1 (en) * 2017-03-21 2017-08-09 株式会社ドワンゴ Reaction selection device, reaction selection method, reaction selection program
CN110326301A (en) * 2017-03-21 2019-10-11 多玩国株式会社 Selecting response device, selecting response method and selecting response program
US11064258B2 (en) 2017-03-21 2021-07-13 Dwango Co., Ltd. Reaction selection device, reaction selection method, and reaction selection program
JP6304847B1 (en) * 2017-04-28 2018-04-04 株式会社コナミデジタルエンタテインメント Server apparatus and computer program used therefor
WO2018198945A1 (en) * 2017-04-28 2018-11-01 株式会社コナミデジタルエンタテインメント Server device and computer program for use therewith
CN110574380A (en) * 2017-04-28 2019-12-13 科乐美数码娱乐株式会社 Server device and computer program used in the server device
US11212594B2 (en) 2017-04-28 2021-12-28 Konami Digital Entertainment Co., Ltd. Server device and storage medium for use therewith
CN110574380B (en) * 2017-04-28 2022-02-11 科乐美数码娱乐株式会社 Server device and recording medium
WO2022180973A1 (en) * 2021-02-26 2022-09-01 株式会社ドワンゴ Comment art management system, comment art management method, comment art management program, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
JP2013229873A (en) Candidate selection device, candidate selection method, and computer program
US11290775B2 (en) Computerized system and method for automatically detecting and rendering highlights from streaming videos
US11138207B2 (en) Integrated dynamic interface for expression-based retrieval of expressive media content
US20170212892A1 (en) Predicting media content items in a dynamic interface
US10616727B2 (en) System and method for location-based content delivery and visualization
US20140282281A1 (en) Seamless media navigation
US20170083519A1 (en) Platform and dynamic interface for procuring, organizing, and retrieving expressive media content
US20200192905A1 (en) Methods, systems, and media for presenting related media content items
CN102857810A (en) Information processing apparatus, information processing method, and program
JP2012248070A (en) Information processing device, metadata setting method, and program
US9495789B2 (en) Information processing apparatus, information processing method and computer program
JP2013033375A (en) Information processing apparatus, information processing method, and program
CN107066426A (en) Modification is created when transforming the data into and can consume content
JP2007193380A (en) Information processor, information processing method and computer program
JP2013084074A (en) Information processing device, information processing server, information processing method, information extracting method and program
CN102902451A (en) Information processing apparatus, program, and coordination processing method
WO2015030214A1 (en) Information processing device, information processing method and program
US11696097B2 (en) System and method for location-based content delivery and visualization
WO2021238084A1 (en) Voice packet recommendation method, apparatus and device, and storage medium
WO2022247220A1 (en) Interface processing method and apparatus
JP2017167752A (en) Device, method, and program for determination
JP6675029B1 (en) Video distribution system, information processing method, and computer program
JP2013257761A (en) Information processing apparatus, information processing method and program
JP5882262B2 (en) Terminal device and program
CN111797801B (en) Method and apparatus for video scene analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170522

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170829