JP2011130129A - Video reproducing device, and control method thereof - Google Patents

Video reproducing device, and control method thereof Download PDF

Info

Publication number
JP2011130129A
JP2011130129A JP2009285766A JP2009285766A JP2011130129A JP 2011130129 A JP2011130129 A JP 2011130129A JP 2009285766 A JP2009285766 A JP 2009285766A JP 2009285766 A JP2009285766 A JP 2009285766A JP 2011130129 A JP2011130129 A JP 2011130129A
Authority
JP
Japan
Prior art keywords
video
predicted value
user
operation command
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009285766A
Other languages
Japanese (ja)
Other versions
JP5570203B2 (en
Inventor
Reiko Shirasawa
玲子 白澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009285766A priority Critical patent/JP5570203B2/en
Publication of JP2011130129A publication Critical patent/JP2011130129A/en
Application granted granted Critical
Publication of JP5570203B2 publication Critical patent/JP5570203B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display a specified video point which a user desires by considering human learning capability characteristic and oblivion characteristic. <P>SOLUTION: An operation command from a user is accepted, and a position in terms of time base direction of the video being reproduced is specified based on the inputted operation command. A prediction value of process period required before a video reproducing device starts to execute the operation command after a user recognizes a specific video is calculated using user's capability characteristic. A position in terms of time base direction of the specified video being reproduced is corrected using the calculated prediction value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、映像再生装置に係り、特に映像の特殊再生が可能な映像再生装置に関する。   The present invention relates to a video playback device, and more particularly to a video playback device capable of special playback of video.

録画したテレビ番組を視聴する際、ユーザは通常再生の他に特定の映像箇所に対して早送り/巻き戻し再生のような特殊再生を要求する操作を行なう。しかし特殊再生を要求している際、ユーザが特定の映像を認識して通常再生ボタンを押下する若しくは特殊再生ボタンの押下の解除までには反応時間分の遅延が生じ、結果としてディスプレイにはユーザの反応時間分進んだ映像が表示されることとなる。そのため、ユーザが認識した特定の映像が表示されず、再度特殊再生を要求する操作を繰返し行なう必要が生じることがある。   When viewing a recorded television program, the user performs an operation for requesting special reproduction such as fast forward / rewind reproduction for a specific video portion in addition to normal reproduction. However, when special playback is requested, there is a delay for the reaction time until the user recognizes a specific video and presses the normal playback button or cancels the special playback button. An image advanced by the reaction time is displayed. Therefore, the specific video recognized by the user may not be displayed, and it may be necessary to repeat the operation requesting special playback again.

このような問題を解決するための方法として、例えば特許文献1には、遅延させるフレーム数を予め行なう反応速度検出試験あるいは以前に行なったマニュアル操作結果に基づいて算出する手法が考えられる。この方法によれば、ユーザが認識した画像を表示することが可能となる。   As a method for solving such a problem, for example, Japanese Patent Application Laid-Open No. H10-228707 may consider a method of calculating the number of frames to be delayed based on a reaction speed detection test performed in advance or a result of manual operation performed previously. According to this method, an image recognized by the user can be displayed.

特開2007−104301号公報JP 2007-104301 A

しかしながら、従来の方法では、ユーザの反応時間が一定であるので、特にユーザが動画の編集を連続して行なう際等にユーザが認識した映像と実際に表示される映像にズレが生じてしまうという課題がある。   However, in the conventional method, since the reaction time of the user is constant, there is a difference between the video recognized by the user and the video actually displayed especially when the user continuously edits the moving image. There are challenges.

以下にその例を図2、図3を用いて示す。図2はリモコン等のコマンド送信機(以下、リモコン)と映像を表示し再生する装置(以下、映像再生装置)間で必要な処理時間に着目した図である。ユーザがある映像を視聴中に、特定の映像を認識した際、201のリモコンにより202の映像再生装置に対して任意のコマンドを送信する。その間における処理時間をコマンド伝送時間tsとする。例えば、コマンド伝送時間tsは、早送り再生中に目的である特定の映像が表示され、ユーザが通常再生ボタンを押下してから、その通常再生指示コマンドが映像再生装置に受信されるまでの時間である。   Examples thereof are shown below with reference to FIGS. FIG. 2 is a diagram focusing on the processing time required between a command transmitter (hereinafter referred to as a remote controller) such as a remote controller and a device for displaying and reproducing a video (hereinafter referred to as a video playback device). When the user recognizes a specific video while viewing a video, an arbitrary command is transmitted to the video playback device 202 by the remote controller 201. The processing time in the meantime is defined as a command transmission time ts. For example, the command transmission time ts is a time from when a specific video as a target is displayed during fast-forward playback and when the normal playback instruction command is received by the video playback device after the user presses the normal playback button. is there.

一方、202の映像再生装置側における処理時間は、201により受信したコマンドを解析する時間すなわちコマンド受信解析時間tr及び特殊再生中に停止処理を行なった場合に発生する特殊再生停止処理時間tpが考えられる。   On the other hand, the processing time 202 on the video playback apparatus side is considered to be a time for analyzing a command received by 201, that is, a command reception analysis time tr and a special playback stop processing time tp that occurs when stop processing is performed during special playback. It is done.

従って、201のリモコンと202の映像再生装置間で生じる処理時間すなわち操作最低時間Tminはコマンド伝送時間ts、コマンド受信解析時間tr及び特殊再生停止処理時間tpの和である。すなわち下記(1)の式で表現できる。
Tmin=ts+tr+tp・・・(1)
一方、図3はユーザが特定の映像を認識してからリモコンを操作するまでに必要な処理時間に着目した図である。人間は視覚器官(眼球)301から認識器官(脳)302にて特定の映像を認識する。その間の時間を視覚神経伝達時間tuとする。一方、認識器官302にて認識し、運動器官(指先)303に実際に動作を伝達する時間を筋肉動作伝達時間tvとする。
Accordingly, the processing time that occurs between the remote controller 201 and the video playback device 202, ie, the minimum operation time Tmin, is the sum of the command transmission time ts, the command reception analysis time tr, and the special playback stop processing time tp. That is, it can be expressed by the following equation (1).
Tmin = ts + tr + tp (1)
On the other hand, FIG. 3 is a diagram focusing on the processing time required until the user operates the remote control after recognizing a specific video. A human recognizes a specific image from a visual organ (eyeball) 301 by a recognition organ (brain) 302. The time between them is defined as the visual nerve transmission time tu. On the other hand, the time for which the recognition organ 302 recognizes and actually transmits the motion to the motor organ (fingertip) 303 is defined as the muscle motion transmission time tv.

従って、ユーザが特定の映像を認識してからリモコンを操作するまでに必要な処理時間すなわち操作動作時間Tmovは視覚神経伝達時間tu及び筋肉動作伝達時間tvの和である。すなわち下記の式(2)で表現できる。
Tmov=tu+tv・・・(2)
以上より、装置側及びユーザ側で操作もしくは動作に必要な時間をTとすると、Tは操作最低時間Tminと操作動作時間Tmovの和となる。すなわち下記の式(3)で表現できる。
T=Tmin+Tmov・・・(3)
このTに基づき装置側は補正を行なうが、ユーザが特殊再生から通常再生に切り換える処理を連続してN回行なった場合、1回目、2回目、・・・、N−1回目、N回目と、各回ともに補正値Tずつ補正し表示することとなる。
Therefore, the processing time required until the user operates the remote controller after recognizing a specific image, that is, the operation operation time Tmov is the sum of the visual nerve transmission time tu and the muscle operation transmission time tv. That is, it can be expressed by the following formula (2).
Tmov = tu + tv (2)
From the above, when the time required for the operation or operation on the apparatus side and the user side is T, T is the sum of the minimum operation time Tmin and the operation operation time Tmov. That is, it can be expressed by the following formula (3).
T = Tmin + Tmov (3)
The apparatus performs correction based on this T, but if the user performs a process of switching from special playback to normal playback N times continuously, the first time, the second time,..., The N−1th time, the Nth time Each time, the correction value T is corrected and displayed.

しかし、人間には学習能力があり、同操作を繰返し行なうことで、操作に必要な時間は回数を増すごとに短くなるという特性がある。一方で、時が経過するにつれ、人間は一度学習したことを忘却してしまうという特性もある。従って、ユーザによる特殊再生から通常再生に切り換える処理を毎回補正値Tずつ補正しても、ユーザの意図する映像特定箇所の表示ができないといったような問題があった。   However, humans have the ability to learn, and by repeating the same operation, the time required for the operation decreases as the number of times increases. On the other hand, as time passes, humans forget what they have learned once. Accordingly, there has been a problem that even if the process of switching from special playback to normal playback by the user is corrected each time by the correction value T, the video specific portion intended by the user cannot be displayed.

本発明は、上記問題を鑑みてなされたものであり、人間の学習能力特性や忘却特性を考慮してユーザの意図する映像特定箇所の表示をすることを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to display a video specific portion intended by a user in consideration of human learning ability characteristics and forgetting characteristics.

上記課題を解決するために本発明の映像再生装置は、ユーザからの操作コマンドを受け付ける入力手段と、前記入力手段によって入力された操作コマンドから再生中の映像の時間軸方向に関する位置を特定する位置特定手段と、ユーザが特定の映像を認識してから映像再生装置が操作コマンドを実行するまでに必要な処理時間の予測値を、ユーザの能力特性を用いて算出する算出手段と、前記位置特定手段によって特定された位置を、前記算出手段によって算出された予測値を用いて補正する補正手段とを備えることを特徴とする。   In order to solve the above problems, a video playback apparatus according to the present invention includes an input unit that receives an operation command from a user, and a position that specifies a position in the time axis direction of the video being played back from the operation command input by the input unit. Specifying means, calculating means for calculating a predicted value of processing time required from when the user recognizes a specific video to when the video playback device executes an operation command, using the capability characteristics of the user, and the position specifying And correction means for correcting the position specified by the means using the predicted value calculated by the calculation means.

本発明の映像再生装置によれば、人間の学習能力特性や忘却特性を考慮してユーザの意図する映像特定箇所の表示をすることが可能になる。   According to the video reproduction apparatus of the present invention, it is possible to display a specific video portion intended by the user in consideration of human learning ability characteristics and forgetting characteristics.

本発明の映像再生装置を表すブロック図The block diagram showing the video reproduction apparatus of this invention リモコンと映像再生装置間で必要な処理時間を表す図Diagram showing processing time required between remote control and video playback device ユーザが特定の映像を認識してから操作するまでに必要な処理時間を表す図A diagram showing the processing time required for a user to recognize and operate a specific video 本発明における処理フローを表したフローチャートThe flowchart showing the processing flow in the present invention 実施形態1の予測値の算出方法を示すフローチャート7 is a flowchart illustrating a predicted value calculation method according to the first embodiment. 実施形態2の予測値の算出方法を示すフローチャート7 is a flowchart illustrating a predicted value calculation method according to the second embodiment. 実施形態3の予測値の算出方法を示すフローチャートA flowchart which shows the calculation method of the predicted value of Embodiment 3. 実施形態3にて用いるテーブルの一例を示した図The figure which showed an example of the table used in Embodiment 3. 実施形態3の予測値の算出方法を示すフローチャートA flowchart which shows the calculation method of the predicted value of Embodiment 3. 実施形態4にて用いるテーブルの一例を示した図The figure which showed an example of the table used in Embodiment 4. 本発明の映像再生装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図FIG. 2 is a block diagram showing an example of the hardware configuration of a computer applicable to the video playback apparatus of the present invention

以下、添付の図面を参照して、本願発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on the preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
図1は本発明における映像再生装置の構成を示すブロック図である。図中、101は入力部であり、リモコン等のコマンド送信機により送信される操作コマンドの入力を受け付ける。102は映像位置特定部であり、101の入力部にて受信した操作コマンドに応じて再生中の映像の映像位置、例えばフレーム番号などの時間軸方向の位置を特定する。
<Embodiment 1>
FIG. 1 is a block diagram showing a configuration of a video reproduction apparatus according to the present invention. In the figure, 101 is an input unit that accepts input of operation commands transmitted by a command transmitter such as a remote controller. Reference numeral 102 denotes a video position specifying unit, which specifies a video position of a video being reproduced, for example, a position in the time axis direction such as a frame number, according to an operation command received by the input unit 101.

103は算出部であり、101の入力部にて受信した操作コマンドに必要な操作時間を時間と共に変化するユーザの反応時間に基づいて算出する。   A calculation unit 103 calculates the operation time required for the operation command received by the input unit 101 based on the reaction time of the user that changes with time.

算出部103の構成を次に示す。104はユーザ特定部であり、操作しているユーザの特定を行なう。106は予測値算出部であり、予測値を算出する。109は実測値算出部であり、実際に補正すべき値を算出する。110は誤差算出部であり、106の予測値算出部および109の実測値算出部より誤差を算出する。この誤差算出部にて算出される誤差が0に近づくほど正確な補正が可能となる。111は変換部であり、109の実測値算出部にて算出した実測値をフレーム数に変換する。112はテーブルであり、予め学習/忘却の値を固定値で保持しておく。113はカウンタであり、前回操作からの経過時間を管理する。114はタイマであり、時間を管理する。115は映像位置補正部であり、算出部103における算出結果に基づいて映像位置特定部102による映像位置を補正する。116は映像表示部であり、映像位置補正部115にて補正された映像信号をディスプレイ等の表示媒体に出力する。   The configuration of the calculation unit 103 is as follows. A user identification unit 104 identifies the user who is operating. Reference numeral 106 denotes a predicted value calculation unit that calculates a predicted value. Reference numeral 109 denotes an actual measurement value calculation unit that calculates a value to be actually corrected. An error calculation unit 110 calculates an error from a predicted value calculation unit 106 and an actual measurement value calculation unit 109. As the error calculated by the error calculation unit approaches 0, more accurate correction is possible. A conversion unit 111 converts the actual measurement value calculated by the actual measurement value calculation unit 109 into the number of frames. Reference numeral 112 denotes a table that holds learning / forgetting values as fixed values in advance. Reference numeral 113 denotes a counter that manages the elapsed time since the previous operation. A timer 114 manages time. Reference numeral 115 denotes a video position correction unit that corrects the video position by the video position specifying unit 102 based on the calculation result of the calculation unit 103. An image display unit 116 outputs the image signal corrected by the image position correction unit 115 to a display medium such as a display.

図4は本発明における処理フローを表したフローチャートである。ステップ401において、ユーザ特定部104は、操作しているユーザの特定を行なう。ユーザの特定方法は、例えばユーザにより入力された年齢や氏名等のキーワードにより、ユーザとテーブル112にて保持しているテーブルの値を関連づける方法がある。ただし、このステップで用いるユーザ特定の方法はこの実施形態に挙げた形態に限定されるものではない。   FIG. 4 is a flowchart showing the processing flow in the present invention. In step 401, the user specifying unit 104 specifies an operating user. As a user specifying method, for example, there is a method of associating the value of the table held in the table 112 with the user by a keyword such as age or name input by the user. However, the user specific method used in this step is not limited to the form described in this embodiment.

ステップ402において、映像再生装置はステップ403からステップ412の処理をユーザ操作がある限り繰り返す。   In step 402, the video reproduction apparatus repeats the processing from step 403 to step 412 as long as there is a user operation.

ステップ403において、予測値算出部106はカウンタ113より操作回数Nを取得し、初回(N=1)の場合はステップ404、それ以外の場合はステップ407の処理を行なう。   In step 403, the predicted value calculation unit 106 acquires the number of operations N from the counter 113, and performs the process of step 404 for the first time (N = 1), and step 407 otherwise.

ステップ404において、予測値算出部106は予測値Tpreを算出する。予測値Tpreの算出方法に関しては後述する。   In step 404, the predicted value calculation unit 106 calculates a predicted value Tpre. A method for calculating the predicted value Tpre will be described later.

ステップ405において、実測値算出部109は実測値Tmsrを算出する。実測値Tmsrの算出方法に関しては、例えばユーザ操作が複数回繰返して行なわれた場合は、ユーザが意図した映像ではない映像がディスプレイに表示されたと認識し、ユーザ操作の受信がなくなるまで監視し実測値を求める方法が挙げられる。ただし、このステップで用いる実測値Tmsrの算出方法はこの実施形態に挙げた形態に限定されるものではない。   In step 405, the actual measurement value calculation unit 109 calculates the actual measurement value Tmsr. Regarding a method of calculating the actual measurement value Tmsr, for example, when a user operation is repeated a plurality of times, it is recognized that a video that is not the video intended by the user is displayed on the display, and monitoring is performed until no user operation is received. There is a method for obtaining the value. However, the calculation method of the actual measurement value Tmsr used in this step is not limited to the form described in this embodiment.

ステップ406において、誤差算出部110は、ステップ404にて算出した予測値Tpreとステップ405にて算出した実測値Tmsrより、誤差Terrを算出する。誤差Terrは下記の式(4)により算出できる。
Terr=Tmsr−Tpre・・・(4)
ステップ407はステップ403にて本操作が初回ではない場合により実行される。ステップ407ではステップ404同様、予測値算出部106にて予測値Tpreを算出する。
In step 406, the error calculation unit 110 calculates the error Terr from the predicted value Tpre calculated in step 404 and the actual measurement value Tmsr calculated in step 405. The error Terr can be calculated by the following equation (4).
Terr = Tmsr−Tpre (4)
Step 407 is executed when this operation is not the first time at step 403. In step 407, as in step 404, the predicted value calculation unit 106 calculates the predicted value Tpre.

ステップ408において、予測値算出部106は、ステップ406にて算出した誤差Terr及びステップ407にて算出した予測値Tpreより、前回操作時に生じた誤差Terr分、予測値Tpreにフィードバックする処理を行なう。フィードバック後の予測値をTpre’とすると、予測値Tpre’は下記の式(5)により算出できる。
Tpre’=Tpre+Terr・・・(5)
ステップ409において、実測値算出部109はステップ405同様、実測値Tmsrを算出する。
In step 408, the predicted value calculation unit 106 performs a process of feeding back the error Terr calculated in step 406 and the predicted value Tpre calculated in step 407 to the predicted value Tpre by the error Terr generated during the previous operation. When the predicted value after feedback is Tpre ′, the predicted value Tpre ′ can be calculated by the following equation (5).
Tpre '= Tpre + Terr (5)
In step 409, the actual measurement value calculation unit 109 calculates the actual measurement value Tmsr as in step 405.

ステップ410において、誤差算出部110はステップ406同様、ステップ408にて算出した予測値Tpre’とステップ409にて算出した実測値Tmsrより、誤差Terrを算出する。誤差Terrは下記の式(6)により算出できる。
Terr=Tmsr−Tpre’・・・(6)
ステップ411において、カウンタ113は操作回数Nを加算する。
In Step 410, the error calculation unit 110 calculates the error Terr from the predicted value Tpre ′ calculated in Step 408 and the actual measurement value Tmsr calculated in Step 409, as in Step 406. The error Terr can be calculated by the following equation (6).
Terr = Tmsr−Tpre ′ (6)
In step 411, the counter 113 adds the number of operations N.

ステップ411において、変換部111は、ステップ405もしくはステップ409にて算出した実測値Tmsrをフレーム数に変換する処理を行なう。仮にフレーム数/secをF1とした場合、下記の式(7)により算出できる。
フレーム数=F1[フレーム/sec]*Tmsr[sec]・・(7)
映像位置補正部115は、算出されたフレーム数を用いて補正処理を行なう。
In step 411, the conversion unit 111 performs a process of converting the actual measurement value Tmsr calculated in step 405 or step 409 into the number of frames. If the number of frames / sec is F1, it can be calculated by the following equation (7).
Number of frames = F1 [frame / sec] * Tmsr [sec] (7)
The video position correction unit 115 performs correction processing using the calculated number of frames.

図5は、予測値の算出方法を示すフローチャートである。なお、図4に示したステップ404及びステップ407に該当する。   FIG. 5 is a flowchart showing a predicted value calculation method. Note that this corresponds to step 404 and step 407 shown in FIG.

ステップ501において、操作最低時間算出部105は前述した操作最低時間Tminを算出する。ステップ502において、予測値算出部106はカウンタ113より操作回数Nを取得する。ステップ503において、予測値算出部106は、学習曲線に基づいてパラメータRTを算出する。   In step 501, the minimum operation time calculation unit 105 calculates the above-described minimum operation time Tmin. In step 502, the predicted value calculation unit 106 acquires the number of operations N from the counter 113. In step 503, the predicted value calculation unit 106 calculates a parameter RT based on the learning curve.

ここで学習曲線について説明する。一般的に知られている学習曲線に以下式(8)がある。
RT=aN−b・・・(8)
但し、RTは反応時間、Nは操作回数、a,bは課題を表すパラメータである。本発明では、課題を表すパラメータa,bは一般的に規定されている所定の値(a=1.4、b=0.24)を用いることとする。ここで、このステップで用いる学習曲線については、上記学習曲線に限定されるものではない。
Here, the learning curve will be described. A generally known learning curve is represented by the following formula (8).
RT = aN− b (8)
However, RT is a reaction time, N is the number of operations, and a and b are parameters representing a task. In the present invention, predetermined values (a = 1.4, b = 0.24) that are generally defined are used for the parameters a and b representing the problem. Here, the learning curve used in this step is not limited to the learning curve.

ステップ504において、予測値算出部106は、ステップ501より算出した操作最低時間Tmin及びステップ503より算出したパラメータRTにより予測値Tpreを算出する。予測値Tpreは下記の式(9)により算出できる。つまり予測値Tpreは、ユーザが特定の映像を認識してから映像再生装置が操作コマンドを実行するまでに必要な処理時間の予測値に該当する。
Tpre=Tmin+RT・・・(9)
以上により、本実施形態による映像再生装置によれば、学習曲線に示される学習能力特性に基づいて予測値を算出することにより、ユーザの意図する映像特定箇所の表示をすることが可能になる。
In step 504, the predicted value calculation unit 106 calculates a predicted value Tpre based on the minimum operation time Tmin calculated in step 501 and the parameter RT calculated in step 503. The predicted value Tpre can be calculated by the following equation (9). That is, the predicted value Tpre corresponds to a predicted value of processing time required from when the user recognizes a specific video to when the video playback device executes an operation command.
Tpre = Tmin + RT (9)
As described above, according to the video reproduction device according to the present embodiment, it is possible to display the video specific portion intended by the user by calculating the predicted value based on the learning ability characteristic indicated by the learning curve.

<実施形態2>
以下、本発明の実施形態2について、実施形態1との差異を中心にフローチャートを用いて説明する。ただし、本発明の技術的範囲がこの実施の形態に限定されるものではない。
<Embodiment 2>
Hereinafter, a second embodiment of the present invention will be described with reference to a flowchart with a focus on differences from the first embodiment. However, the technical scope of the present invention is not limited to this embodiment.

図6は、実施形態2における予測値の算出方法を示すフローチャートである。本実施形態では、学習曲線に加えて忘却特性を加味した予測値の算出方法を示す。   FIG. 6 is a flowchart illustrating a predicted value calculation method according to the second embodiment. In the present embodiment, a prediction value calculation method that takes into account forgetting characteristics in addition to a learning curve is shown.

ステップ601において、操作最低時間算出部105は操作最低時間Tminを算出する。ステップ602において、予測値算出部106はカウンタ113より操作回数Nを取得する。ステップ603において、予測値算出部106は上記式(8)の学習曲線に基づいてパラメータRTを算出する。   In step 601, the minimum operation time calculation unit 105 calculates the minimum operation time Tmin. In step 602, the predicted value calculation unit 106 acquires the number of operations N from the counter 113. In step 603, the predicted value calculation unit 106 calculates the parameter RT based on the learning curve of the above equation (8).

ステップ604において、予測値算出部106はタイマ114より前回操作から経過した時間tを取得する。   In step 604, the predicted value calculation unit 106 acquires the time t elapsed from the previous operation from the timer 114.

ステップ605において、予測値算出部106は忘却曲線に基づいてパラメータR(t)を算出する。ここで忘却曲線について説明する。本発明では忘却曲線としてロンドンの忘却曲線を用いて説明する。ロンドンの忘却曲線は以下の式(10)で示される。   In step 605, the predicted value calculation unit 106 calculates a parameter R (t) based on the forgetting curve. Here, the forgetting curve will be described. The present invention will be described using the London forgetting curve as the forgetting curve. The London forgetting curve is given by equation (10) below.

Figure 2011130129
Figure 2011130129

但し、R0を全量、時間をt、時間t後の保持量をR(t)、忘却の早さをλ、回復の速さをμとする。但しこのステップで用いる忘却曲線については、ロンドンの忘却曲線に限定されるものではない。   However, R0 is the total amount, time is t, retention amount after time t is R (t), forgetting speed is λ, and recovery speed is μ. However, the forgetting curve used in this step is not limited to the London forgetting curve.

ステップ606において、予測値算出部106はステップ601より算出した操作最低時間Tmin、ステップ603より算出した学習曲線のパラメータRT及びステップ605より算出した忘却曲線のパラメータR(t)により予測値Tpreを算出する。予測値Tpreは下記の式(11)により算出できる。   In step 606, the predicted value calculation unit 106 calculates the predicted value Tpre based on the minimum operation time Tmin calculated in step 601, the learning curve parameter RT calculated in step 603 and the forgetting curve parameter R (t) calculated in step 605. To do. The predicted value Tpre can be calculated by the following equation (11).

Figure 2011130129
Figure 2011130129

以上により、本実施形態による映像再生装置によれば、学習曲線に示される人間の学習能力特性並びに人間の忘却特性に基づいて予測値を算出することにより、ユーザの意図する映像特定箇所の表示をすることが可能になる。なお、忘却特性にのみ基づいて予測値を算出してもよいし、もしくは、学習曲線による補正、忘却特性による補正を切り替えても同様の効果を得ることができる。   As described above, according to the video reproduction device according to the present embodiment, the prediction value is calculated based on the human learning ability characteristic and the human forgetting characteristic indicated by the learning curve, thereby displaying the video specific portion intended by the user. It becomes possible to do. Note that the predicted value may be calculated based only on the forgetting characteristic, or the same effect can be obtained by switching the correction based on the learning curve and the correction based on the forgetting characteristic.

<実施形態3>
図7は、実施形態3における予測値の算出方法を示すフローチャートである。本実施形態では、学習テーブルを用いた人間の学習能力特性を加味した予測値の算出方法を示す。
<Embodiment 3>
FIG. 7 is a flowchart illustrating a predicted value calculation method according to the third embodiment. In the present embodiment, a prediction value calculation method that takes into account human learning ability characteristics using a learning table is shown.

ステップ701において、操作最低時間算出部105は操作最低時間Tminを算出する。ステップ702において、予測値算出部106はカウンタ113より操作回数Nを取得する。ステップ703において、予測値算出部106はテーブル112にて保持している学習テーブルを参照し学習による補正値RTを取得する。ステップ703において参照するテーブルの一例を図8に示す。このテーブルの内容は後に後述する。   In step 701, the minimum operation time calculation unit 105 calculates the minimum operation time Tmin. In step 702, the predicted value calculation unit 106 acquires the number of operations N from the counter 113. In step 703, the predicted value calculation unit 106 refers to the learning table held in the table 112 and acquires the correction value RT by learning. An example of the table referred to in step 703 is shown in FIG. The contents of this table will be described later.

ステップ704において、予測値算出部106はステップ701より算出した操作最低時間Tmin及びステップ703より算出したパラメータRTにより予測値Tpreを算出する。予測値Tpreは式(9)に基づいて算出する。   In step 704, the predicted value calculation unit 106 calculates a predicted value Tpre based on the minimum operation time Tmin calculated in step 701 and the parameter RT calculated in step 703. The predicted value Tpre is calculated based on the formula (9).

図8は図1における112のテーブルにて保持しているテーブル値の一例である。但しこのテーブルについては、本発明で例に挙げたテーブル値に限定されるのものではない。また、本テーブルはユーザごとに複数のテーブル値を持つことも可能である。列801は操作回数Nを表す。操作回数Nについてはステップ702においてカウンタ113より取得した操作回数Nを参照する。列802は学習による補正値RTを表す。例えば図7におけるステップ701にて算出した操作最低時間Tmin=0.5、ステップ702において取得した操作回数N=3であった場合は、ステップ703にて図8の行804を参照することにより、学習による補正値RT=1.05を取得する。   FIG. 8 shows an example of table values held in the table 112 in FIG. However, this table is not limited to the table values exemplified in the present invention. In addition, this table can have a plurality of table values for each user. A column 801 represents the number of operations N. For the number of operations N, the number of operations N acquired from the counter 113 in step 702 is referred to. A column 802 represents a correction value RT by learning. For example, when the minimum operation time Tmin calculated in step 701 in FIG. 7 is 0.5 and the number of operations N acquired in step 702 is 3, reference is made to the row 804 in FIG. A correction value RT = 1.05 by learning is acquired.

ステップ703にて学習による補正値RT=1.05を取得した後は、予測値算出部106はステップ704にてステップ701より算出した操作最低時間Tminにより式(9)に基づいて予測値Tpreを算出する。この場合、予測値Tpre=Tmin+RT+1.05=2.00となる。   After acquiring the correction value RT = 1.05 by learning in step 703, the predicted value calculation unit 106 calculates the predicted value Tpre based on equation (9) based on the minimum operation time Tmin calculated from step 701 in step 704. calculate. In this case, the predicted value Tpre = Tmin + RT + 1.05 = 2.00.

なお、本実施例では連続的な場合について言及したが、離散的な場合についても本実施形態の仕組みによって同様の効果を得ることができる。   In addition, although the continuous case was mentioned in the present Example, the same effect can be acquired also by the structure of this embodiment also about a discrete case.

<実施形態4>
図7は、実施形態4における予測値の算出方法を示すフローチャートである。本実施形態では、学習テーブルを用いた人間の学習能力特性並びに忘却テーブルを用いた人間の忘却特性を加味した予測値の算出方法を示す。
<Embodiment 4>
FIG. 7 is a flowchart illustrating a predicted value calculation method according to the fourth embodiment. In the present embodiment, a prediction value calculation method that takes into account human learning ability characteristics using a learning table and human forgetting characteristics using a forgetting table is shown.

ステップ901において、操作最低時間算出部105は操作最低時間Tminを算出する。ステップ902において、予測値算出部106はカウンタ113より操作回数Nを取得する。ステップ903において、予測値算出部106はテーブル112にて保持している学習テーブルを参照し学習による補正値RTを取得する。ステップ903において参照するテーブルの一例を図8に示す。ステップ904において、予測値算出部106はタイマ114より前回操作から経過した時間tを取得する。   In step 901, the minimum operation time calculation unit 105 calculates the minimum operation time Tmin. In step 902, the predicted value calculation unit 106 acquires the number of operations N from the counter 113. In step 903, the predicted value calculation unit 106 refers to the learning table held in the table 112 and acquires the correction value RT by learning. An example of the table referred to in step 903 is shown in FIG. In step 904, the predicted value calculation unit 106 acquires the time t elapsed from the previous operation from the timer 114.

ステップ905において、予測値算出部106はテーブル112にて保持している忘却テーブルを参照し忘却による補正値R(t)を取得する。ステップ905において参照するテーブルの一例を図10に示す。このテーブルの内容は後に後述する。   In step 905, the predicted value calculation unit 106 refers to the forgetting table held in the table 112 and acquires a correction value R (t) due to forgetting. An example of the table referred to in step 905 is shown in FIG. The contents of this table will be described later.

ステップ906において、予測値算出部106はステップ901より算出した操作最低時間Tmin及びステップ905より算出したパラメータR(t)により予測値Tpreを算出する。予測値Tpreは式(11)に基づいて算出する。   In step 906, the predicted value calculation unit 106 calculates the predicted value Tpre based on the minimum operation time Tmin calculated in step 901 and the parameter R (t) calculated in step 905. The predicted value Tpre is calculated based on the equation (11).

図10はテーブル112にて保持しているテーブル値の一例である。但しこのテーブルについては、本発明で例に挙げたテーブル値に限定されるものではない。また、本テーブルはユーザごとに複数のテーブル値を持つことも可能である。列1001は経過時間tを表す。経過時間tについてはステップ904においてタイマ114より取得した経過時間tを参照する。列1002は時間t後の保持量R(t)を表す。例として、図9におけるステップ901にて算出した操作最低時間Tmin=0.6、ステップ802において取得した操作回数がN=2であった場合は、ステップ903にて図8の行804を参照することにより補正値RT=1.05を取得する。   FIG. 10 shows an example of table values held in the table 112. However, this table is not limited to the table values exemplified in the present invention. In addition, this table can have a plurality of table values for each user. A column 1001 represents the elapsed time t. For the elapsed time t, the elapsed time t acquired from the timer 114 in step 904 is referred to. A column 1002 represents the holding amount R (t) after time t. As an example, if the minimum operation time Tmin calculated in step 901 in FIG. 9 is 0.6 and the number of operations acquired in step 802 is N = 2, step 903 refers to the row 804 in FIG. As a result, the correction value RT = 1.05 is obtained.

ステップ903にて学習による補正値RT=1.05を取得した後は、予測値算出部106はステップ904にてタイマ114より前回操作から経過した時間tを取得する。ここでタイマ114より取得した前回操作から経過した時間がt=20(分)であった場合は、ステップ905にて図10の行1003を参照することにより時間t後(時間20分後)の保持量R(t)=58(%)を取得する。   After acquiring the correction value RT = 1.05 by learning in step 903, the predicted value calculation unit 106 acquires the time t elapsed from the previous operation from the timer 114 in step 904. Here, when the time elapsed from the previous operation acquired from the timer 114 is t = 20 (minutes), by referring to the row 1003 in FIG. The holding amount R (t) = 58 (%) is acquired.

ステップ905にて忘却による補正値R(t)=58(%)の取得後、予測値算出部106はステップ906にて、操作最低時間Tmin、ステップ903より取得した学習による補正値RTにより式(11)に基づいて予測値Tpreを算出する。この場合、予測値Tpreは2.091となる。   After obtaining the correction value R (t) = 58 (%) due to forgetting in step 905, the predicted value calculation unit 106 uses the minimum operation time Tmin in step 906 and the learning correction value RT obtained in step 903 to obtain an expression ( The predicted value Tpre is calculated based on 11). In this case, the predicted value Tpre is 2.091.

なお、本実施例では連続的な場合について言及したが、離散的な場合についても本実施形態の仕組みによって同様の効果を得ることができる。   In addition, although the continuous case was mentioned in the present Example, the same effect can be acquired also by the structure of this embodiment also about a discrete case.

<実施形態5>
図1に示した装置が有する各部は全てハードウェアでもって構成しているものとして上記実施形態では説明した。しかし、テーブル112等を保持する保持手段などを除く各部をコンピュータプログラムでもって構成しても良い。この場合、このようなコンピュータプログラムを格納するためのメモリと、このメモリに格納されているコンピュータプログラムを実行するCPUとを有するコンピュータ若しくは映像再生装置は、上記各実施形態に係る映像再生装置に適用することができる。
<Embodiment 5>
The above embodiments have been described on the assumption that all the units included in the apparatus shown in FIG. 1 are configured by hardware. However, each unit other than the holding means for holding the table 112 and the like may be configured by a computer program. In this case, a computer or video playback device having a memory for storing such a computer program and a CPU for executing the computer program stored in the memory is applied to the video playback device according to each of the above embodiments. can do.

図11は、上記各実施形態に係る映像再生装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 11 is a block diagram illustrating a configuration example of computer hardware applicable to the video reproduction device according to each of the above embodiments.

CPU1101は、RAM1102やROM1103に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る映像再生装置が行うものとして上述した各処理を実行する。即ち、CPU1101は、図1の101〜111、113〜116として機能することになる。   The CPU 1101 controls the entire computer using computer programs and data stored in the RAM 1102 and the ROM 1103, and executes each process described above as performed by the video reproduction apparatus according to each of the above embodiments. That is, the CPU 1101 functions as 101 to 111 and 113 to 116 in FIG.

RAM1102は、外部記憶装置1106からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1109を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM1102は、CPU1101が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM1102は、例えば、フレームメモリとして割当てたり、その他の各種のエリアを適宜提供することができる。   The RAM 1102 has an area for temporarily storing computer programs and data loaded from the external storage device 1106, data acquired from the outside via an I / F (interface) 1109, and the like. Further, the RAM 1102 has a work area used when the CPU 1101 executes various processes. That is, the RAM 1102 can be allocated as a frame memory, for example, or can provide other various areas as appropriate.

ROM1103には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部1104は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU1101に対して入力することができる。表示部1105は、CPU1101による処理結果を表示する。また表示部1105は例えば液晶ディスプレイのようなホールド型の表示装置や、フィールドエミッションタイプの表示装置のようなインパルス型の表示装置で構成される。   The ROM 1103 stores setting data of the computer, a boot program, and the like. The operation unit 1104 is configured by a keyboard, a mouse, and the like, and various instructions can be input to the CPU 1101 by being operated by a user of the computer. A display unit 1105 displays a processing result by the CPU 1101. The display unit 1105 is configured by a hold-type display device such as a liquid crystal display or an impulse-type display device such as a field emission type display device.

外部記憶装置1106は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置1106には、OS(オペレーティングシステム)や、図1に示した各部の機能及び図4〜図7、図9に示したフローをCPU1101に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置1106には、処理対象としての各画像データが保存されていても良い。   The external storage device 1106 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 1106 stores an OS (Operating System), functions of each unit shown in FIG. 1, and a computer program for causing the CPU 1101 to realize the flows shown in FIGS. 4 to 7 and FIG. Furthermore, each image data as a processing target may be stored in the external storage device 1106.

外部記憶装置1106に保存されているコンピュータプログラムやデータは、CPU1101による制御に従って適宜RAM1102にロードされ、CPU1101による処理対象となる。I/F1107には、LANやインターネット等のネットワーク、他の機器を接続することができ、本コンピュータはこのI/F1107を介して様々な情報を取得したり、送出したりすることができる。1108は上述の各部を繋ぐバスである。   Computer programs and data stored in the external storage device 1106 are appropriately loaded into the RAM 1102 under the control of the CPU 1101 and are processed by the CPU 1101. A network such as a LAN or the Internet and other devices can be connected to the I / F 1107, and this computer can acquire and send various information via the I / F 1107. A bus 1108 connects the above-described units.

上述の構成からなる作動は前述のフローチャートで説明した作動をCPU1101がその制御の中心となって行う。   In the operation having the above-described configuration, the CPU 1101 performs the operation described with reference to the flowchart described above as the center of the control.

<その他の実施形態>
また、本発明の目的は、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体は本発明を構成する。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。
<Other embodiments>
The object of the present invention can also be achieved by supplying a storage medium recording the computer program code for realizing the above-described functions to the system, and the system reading and executing the computer program code. In this case, the computer program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the computer program code constitutes the present invention. In addition, the operating system (OS) running on the computer performs part or all of the actual processing based on the code instruction of the program, and the above-described functions are realized by the processing. .

さらに、以下の形態で実現しても構わない。すなわち、記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現される場合も含まれる。   Furthermore, you may implement | achieve with the following forms. That is, the computer program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. Then, based on the instruction of the code of the computer program, the above-described functions are realized by the CPU or the like provided in the function expansion card or function expansion unit performing part or all of the actual processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するコンピュータプログラムのコードが格納されることになる。   When the present invention is applied to the above storage medium, the computer program code corresponding to the flowchart described above is stored in the storage medium.

Claims (5)

ユーザからの操作コマンドを受け付ける入力手段と、
前記入力手段によって入力された操作コマンドから再生中の映像の時間軸方向に関する位置を特定する位置特定手段と、
ユーザが特定の映像を認識してから映像再生装置が操作コマンドを実行するまでに必要な処理時間の予測値を、ユーザの能力特性を用いて算出する算出手段と、
前記位置特定手段によって特定された位置を、前記算出手段によって算出された予測値を用いて補正する補正手段と
を備えることを特徴とする映像再生装置。
An input means for receiving an operation command from a user;
Position specifying means for specifying a position in the time axis direction of the video being reproduced from the operation command input by the input means;
A calculation means for calculating a predicted value of a processing time required from when the user recognizes a specific video until the video playback device executes an operation command, using the capability characteristics of the user;
A video reproducing apparatus comprising: a correcting unit that corrects the position specified by the position specifying unit using the predicted value calculated by the calculating unit.
前記算出手段は、所定の値を示すパラメータと操作回数Nからなる学習曲線に基づいて前記予測値を算出することを特徴とする請求項1に記載の映像再生装置。   The video reproduction apparatus according to claim 1, wherein the calculation unit calculates the predicted value based on a learning curve including a parameter indicating a predetermined value and the number of operations N. 前記算出手段は、忘却の早さλ並びに回復の速さμで示される忘却曲線に基づいて前記予測値を算出することを特徴とする請求項1乃至2に記載の映像再生装置。   3. The video reproduction apparatus according to claim 1, wherein the calculating unit calculates the predicted value based on a forgetting curve indicated by a forgetting speed λ and a recovery speed μ. 映像再生装置の制御方法であって、
ユーザからの操作コマンドを受け付ける入力工程と、
入力された操作コマンドから再生中の映像の時間軸方向に関する位置を特定する位置特定工程と、
ユーザが特定の映像を認識してから映像再生装置が操作コマンドを実行するまでに必要な処理時間の予測値を、ユーザの能力特性を用いて算出する算出工程と、
特定された再生中の映像の時間軸方向に関する位置を、算出された予測値を用いて補正する補正工程と
を備えることを特徴とする映像再生装置の制御方法。
A method for controlling a video playback device, comprising:
An input process for receiving an operation command from a user;
A position specifying step for specifying a position in the time axis direction of the video being played from the input operation command;
A calculation step of calculating a predicted value of processing time required from when the user recognizes a specific video to when the video playback device executes an operation command, using the capability characteristics of the user;
A control method for a video playback apparatus, comprising: a correction step of correcting a position in the time axis direction of a specified video being played back using a calculated predicted value.
コンピュータが読み出して実行することにより、前記コンピュータを、請求項1乃至3のいずれか1項に記載の映像再生装置として機能させることを特徴とするプログラム。   A program that causes a computer to function as the video playback device according to any one of claims 1 to 3 by being read and executed by the computer.
JP2009285766A 2009-12-16 2009-12-16 Video playback apparatus and control method thereof Expired - Fee Related JP5570203B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009285766A JP5570203B2 (en) 2009-12-16 2009-12-16 Video playback apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009285766A JP5570203B2 (en) 2009-12-16 2009-12-16 Video playback apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2011130129A true JP2011130129A (en) 2011-06-30
JP5570203B2 JP5570203B2 (en) 2014-08-13

Family

ID=44292239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009285766A Expired - Fee Related JP5570203B2 (en) 2009-12-16 2009-12-16 Video playback apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5570203B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175281A (en) * 1999-12-20 2001-06-29 Seiko Epson Corp Operation command processing method, operation command processor and recording medium recording operation command processing program
JP2004242133A (en) * 2003-02-07 2004-08-26 Canon Inc Device and method for reproducing image, computer program, and computer readable recording medium
JP2005293680A (en) * 2004-03-31 2005-10-20 Nec Personal Products Co Ltd Content cue position control method, content cue position control device and content cue position control program
JP2006279334A (en) * 2005-03-28 2006-10-12 Victor Co Of Japan Ltd Playback position determining device
JP2006325018A (en) * 2005-05-19 2006-11-30 Canon Inc System and method for processing video signal
JP2007150544A (en) * 2005-11-25 2007-06-14 Funai Electric Co Ltd Content reproducing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175281A (en) * 1999-12-20 2001-06-29 Seiko Epson Corp Operation command processing method, operation command processor and recording medium recording operation command processing program
JP2004242133A (en) * 2003-02-07 2004-08-26 Canon Inc Device and method for reproducing image, computer program, and computer readable recording medium
JP2005293680A (en) * 2004-03-31 2005-10-20 Nec Personal Products Co Ltd Content cue position control method, content cue position control device and content cue position control program
JP2006279334A (en) * 2005-03-28 2006-10-12 Victor Co Of Japan Ltd Playback position determining device
JP2006325018A (en) * 2005-05-19 2006-11-30 Canon Inc System and method for processing video signal
JP2007150544A (en) * 2005-11-25 2007-06-14 Funai Electric Co Ltd Content reproducing apparatus

Also Published As

Publication number Publication date
JP5570203B2 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
US9639531B2 (en) Methods and apparatus to play and control playing of media in a web page
US9257114B2 (en) Electronic device, information processing apparatus,and method for controlling the same
US9240047B2 (en) Recognition apparatus, method, and computer program product
US11025879B2 (en) Image processing apparatus, image processing method, and storage medium storing program
Hanke et al. Dgs corpus & dicta-sign: The hamburg studio setup
US11677909B2 (en) Method and system for synchronizing playback of two recorded videos of the same surgical procedure
WO2018050115A1 (en) Method and device for detecting video playing smoothness, and computer storage medium
US20080056542A1 (en) Face-detection-based remote-control system and method and face-detection-based remote-controllable multimedia system
JP2004527163A5 (en)
JP2007034664A (en) Emotion estimation device and method, recording medium and program
EP1892717A1 (en) Content tag attachment support device and content tag attachment support method
CN107172502B (en) Virtual reality video playing control method and device
EP2687146A1 (en) Medical information recording device
JP6520975B2 (en) Moving image processing apparatus, moving image processing method and program
JP2007299370A (en) Information processor, information processing method and information processing program
US20160310852A1 (en) Game recording apparatus and game recording method
EP3382706A1 (en) System and method for audio/video trick modes
WO2009126152A1 (en) Methods and apparatus to play and control playing of media content in a web page
JP5570203B2 (en) Video playback apparatus and control method thereof
JP2003058901A (en) Device and method for recording, device and method for reproduction, recording medium and program
KR102000624B1 (en) Forklift virtual reality device
US20220296334A1 (en) Deep-learning-based real-time remaining surgery duration (rsd) estimation
US10347297B2 (en) Moving picture playback method, moving picture playback program, and moving picture playback apparatus
JP6780131B1 (en) Physical exercise feedback device, physical exercise feedback method, program
JP2014211808A (en) Operation discomfort reduction device, method thereof and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140527

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140624

R151 Written notification of patent or utility model registration

Ref document number: 5570203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees