JP6055522B1 - Display program and terminal device - Google Patents
Display program and terminal device Download PDFInfo
- Publication number
- JP6055522B1 JP6055522B1 JP2015159835A JP2015159835A JP6055522B1 JP 6055522 B1 JP6055522 B1 JP 6055522B1 JP 2015159835 A JP2015159835 A JP 2015159835A JP 2015159835 A JP2015159835 A JP 2015159835A JP 6055522 B1 JP6055522 B1 JP 6055522B1
- Authority
- JP
- Japan
- Prior art keywords
- image information
- displayed
- display area
- display
- terminal device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 24
- 230000004044 response Effects 0.000 claims description 12
- 238000003860 storage Methods 0.000 description 48
- 230000004048 modification Effects 0.000 description 37
- 238000012986 modification Methods 0.000 description 37
- 101000631695 Homo sapiens Succinate dehydrogenase assembly factor 3, mitochondrial Proteins 0.000 description 29
- 102100028996 Succinate dehydrogenase assembly factor 3, mitochondrial Human genes 0.000 description 29
- 238000001514 detection method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 238000009826 distribution Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 11
- 101000761698 Hydrophis hardwickii Short neurotoxin 1 Proteins 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 102100028175 Abasic site processing protein HMCES Human genes 0.000 description 1
- 101001006387 Homo sapiens Abasic site processing protein HMCES Proteins 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 101100522111 Oryza sativa subsp. japonica PHT1-11 gene Proteins 0.000 description 1
- 101100522114 Oryza sativa subsp. japonica PHT1-12 gene Proteins 0.000 description 1
- 101100522115 Oryza sativa subsp. japonica PHT1-13 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
Images
Abstract
【課題】適切に動画の内容をユーザに提供する情報を生成すること。【解決手段】本願に係る生成装置は、受付部と、生成部とを有する。受付部は、動画情報における注目箇所の指定を受け付ける。生成部は、受付部により受け付けられた注目箇所の指定に基づいて、動画情報から、注目箇所の指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを生成する。例えば、生成部は、端末装置において所定の方向にスクロール可能に表示されるコンテンツに含まれる表示領域に、所定の方向へのスクロールに応じて、所定の順序で複数の画像情報が連続して表示される要約コンテンツを生成する。【選択図】図4Information for appropriately providing contents of a moving image to a user is generated. A generation apparatus according to the present application includes a reception unit and a generation unit. The reception unit receives designation of a point of interest in the moving image information. The generation unit includes summary content including a plurality of pieces of image information obtained by extracting a range in which the point of interest is specified and another range from the moving image information based on the specification of the point of interest received by the reception unit. Is generated. For example, the generation unit continuously displays a plurality of pieces of image information in a predetermined order in a display area included in content that is scrollably displayed in a predetermined direction on the terminal device according to the scroll in the predetermined direction. Generated summary content. [Selection] Figure 4
Description
本発明は、表示プログラム、及び端末装置に関する。 The present invention, the display program, and a terminal device.
従来、動画情報を表示時間等に応じて編集する技術やユーザ操作に応じて動画情報を表示する技術が提供されている。 Conventionally, a technique for editing moving picture information according to a display time or the like and a technique for displaying moving picture information according to a user operation are provided.
しかしながら、上記の従来技術では適切に動画情報の内容をユーザに提供することが難しい。例えば、単純に動画情報の時間を短縮する編集をした場合、動画情報における重要箇所の内容をユーザに提供することが難しい。 However, it is difficult to appropriately provide the content of the moving image information to the user with the above-described conventional technology. For example, when editing is simply performed to shorten the time of moving image information, it is difficult to provide the user with the contents of important portions in the moving image information.
本願は、上記に鑑みてなされたものであって、適切に動画の内容をユーザに提供する情報を生成することができる生成装置、生成方法、生成プログラム、端末装置、及び表示プログラムを提供することを目的とする。 The present application has been made in view of the above, and provides a generation device, a generation method, a generation program, a terminal device, and a display program that can generate information that appropriately provides the user with the contents of a moving image. With the goal.
本願に係る生成装置は、動画情報における注目箇所の指定を受け付ける受付部と、前記受付部により受け付けられた前記注目箇所の指定に基づいて、前記動画情報から、前記注目箇所の指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを生成する生成部と、を備えたことを特徴とする。 The generation device according to the present application includes a reception unit that receives designation of a point of interest in moving image information, and a range in which the point of interest is designated from the video information based on the designation of the point of interest received by the reception unit. And a generating unit that generates summary content including a plurality of pieces of image information extracted at different intervals from other ranges.
実施形態の一態様によれば、適切に動画の内容をユーザに提供する情報を生成することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that information that appropriately provides the content of the moving image to the user can be generated.
以下に、本願に係る生成装置、生成方法、生成プログラム、端末装置、及び表示プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、生成プログラム、端末装置、及び表示プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, embodiments for generating a generation device, a generation method, a generation program, a terminal device, and a display program according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. Note that the generation device, the generation method, the generation program, the terminal device, and the display program according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
(実施形態)
〔1−1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1に示す生成装置100は、ユーザによる注目箇所(以下、「ハイライト」とする場合がある)の指定に基づいて、動画情報からハイライトの指定がされた範囲を他の範囲よりも短い間隔で抽出した複数の画像情報を含む要約コンテンツを生成する生成サービスを提供する。また、生成装置100は、生成した要約コンテンツをユーザの端末装置10に配信する。なお、ここでいう他の範囲とは、注目箇所(ハイライト)の指定がされた範囲以外の部分である。すなわち、ここでいう他の範囲とは、ハイライトの指定がされていない範囲のことをいう。
(Embodiment)
[1-1. Generation process)
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a generation process according to the embodiment. The
図1に示す例においては、動画情報MV11から要約コンテンツDC11を生成する場合を示す。例えば、動画情報MV11は、右を向いた子供が正面を向いた後、寄りから引きへ戻り、左を向くまでの一連の動作を示す30秒の動画である。ここで、図1に示す例においては、動画情報MV11を、シーンAとシーンBとシーンCとの3つのシーンに分割される。具体的には、動画情報MV11は、子供が右を向いた状態から正面を向くまでを示すシーンAと、子供が徐々に寄りの状態になってから引きの状態に戻るまでを示すシーンBと、子供が正面を向いた状態から左を向くまでを示すシーンCとに分割される。なお、シーンの分割は、種々の従来技術を用いて生成装置100が自動的に行ってもよいし、ユーザの操作に応じて生成装置100が行ってもよい。
In the example shown in FIG. 1, the case where the summary content DC11 is generated from the moving image information MV11 is shown. For example, the moving image information MV11 is a 30-second moving image showing a series of operations from a child who turned to the right to the front, returning from the side to the pull and turning to the left. Here, in the example illustrated in FIG. 1, the moving image information MV11 is divided into three scenes of a scene A, a scene B, and a scene C. Specifically, the moving image information MV11 includes a scene A indicating that the child is facing right to the front, and a scene B indicating that the child is gradually approaching and returns to the pulling state. The scene C is divided into a scene C from the state where the child faces the front to the left. The scene division may be automatically performed by the
また、例えばフレームレートが30フレーム(以下、「コマ」とする場合がある)である場合、30秒の動画であれば900コマであり、各シーンは300コマずつ含むが、図1に示す例においては、説明のために各シーンが、6コマずつ含む場合を示す。具体的には、シーンAが画像情報C10−1〜C10−6に対応する6コマを含み、シーンBが画像情報C10−7〜C10−12に対応する6コマを含み、シーンCが画像情報C10−13〜C10−18に対応する6コマを含む。なお、図1に示す例においては、動画情報MV11における画像情報C10−1に対応するコマが表示された場合、画像情報C10−1と同じ表示態様であるため画像情報C10−1としているが、表示時点での動画情報MV11における画像情報C10−1に対応するデータ(情報)と、画像情報C10−1自体のデータ(情報)は異なってもよい。以下では、画像情報C10−1〜画像情報C10−18について、特に区別なく説明する場合には、画像情報C10と記載する。 Further, for example, when the frame rate is 30 frames (hereinafter sometimes referred to as “frame”), if it is a 30-second movie, it is 900 frames, and each scene includes 300 frames, but the example shown in FIG. In the figure, for the sake of explanation, the case where each scene includes six frames is shown. Specifically, the scene A includes 6 frames corresponding to the image information C10-1 to C10-6, the scene B includes 6 frames corresponding to the image information C10-7 to C10-12, and the scene C includes the image information. 6 frames corresponding to C10-13 to C10-18 are included. In the example illustrated in FIG. 1, when a frame corresponding to the image information C10-1 in the moving image information MV11 is displayed, the image information C10-1 is displayed because the display mode is the same as that of the image information C10-1. The data (information) corresponding to the image information C10-1 in the moving image information MV11 at the time of display may be different from the data (information) of the image information C10-1 itself. Hereinafter, the image information C10-1 to the image information C10-18 are referred to as image information C10 when they are not particularly distinguished.
ここで、図1では、ユーザがシーンBをハイライトとして指定する(ステップS11)。この場合、生成装置100は、シーンBをハイライトとして要約コンテンツDC11を生成する(ステップS12)。具体的には、生成装置100は、動画情報MV11からハイライトの指定がされた範囲であるシーンBと、他の範囲であるシーンA及びシーンCとを異なる間隔で抽出した複数の画像情報C10を含む要約コンテンツDC11を生成する。
Here, in FIG. 1, the user designates the scene B as a highlight (step S11). In this case, the generating
図1では、ハイライトとして指定されていないシーンAからは6コマ中2コマがキャプチャされて画像情報として抽出される。具体的には、ハイライトとして指定されていないシーンAからは画像情報C10−2及び画像情報C10−5が抽出される。つまり、画像情報C10−2及び画像情報C10−5が、シーンAの内容を示すダイジェストとなる。 In FIG. 1, 2 frames out of 6 frames are captured from the scene A that is not designated as a highlight and extracted as image information. Specifically, image information C10-2 and image information C10-5 are extracted from scene A that is not designated as a highlight. That is, the image information C10-2 and the image information C10-5 are digests indicating the contents of the scene A.
また、図1では、ハイライトとして指定されたシーンBからは6コマ中4コマがキャプチャされて画像情報として抽出される。具体的には、ハイライトとして指定されたシーンBからは画像情報C10−7、画像情報C10−9、画像情報C10−10、及び画像情報C10−12が抽出される。つまり、画像情報C10−7、画像情報C10−9、画像情報C10−10、及び画像情報C10−12が、シーンBの内容を示すダイジェストとなる。このように、ハイライトとして指定されたシーンからは、ハイライトとして指定されていないシーンよりも多くの画像情報が抽出される。 In FIG. 1, 4 out of 6 frames are captured from the scene B designated as the highlight and extracted as image information. Specifically, image information C10-7, image information C10-9, image information C10-10, and image information C10-12 are extracted from the scene B designated as the highlight. That is, the image information C10-7, the image information C10-9, the image information C10-10, and the image information C10-12 are digests indicating the contents of the scene B. As described above, more image information is extracted from the scene designated as the highlight than the scene not designated as the highlight.
図1では、ハイライトとして指定されていないシーンCからは6コマ中2コマがキャプチャされて画像情報として抽出される。具体的には、ハイライトとして指定されていないシーンCからは画像情報C10−14及び画像情報C10−17が抽出される。つまり、画像情報C10−14及び画像情報C10−17が、シーンCの内容を示すダイジェストとなる。なお、生成装置100は、ハイライト指定がされたかに応じて規定される数だけ、各シーンから所定の間隔でコマを画像情報として抽出してもよいし、そのシーンの特徴的なコマを画像情報として抽出してもよい。
In FIG. 1, 2 frames out of 6 frames are captured from the scene C that is not designated as a highlight and extracted as image information. Specifically, the image information C10-14 and the image information C10-17 are extracted from the scene C that is not designated as a highlight. That is, the image information C10-14 and the image information C10-17 are digests indicating the contents of the scene C. Note that the
上述のように各シーンから画像情報C10を抽出することにより、生成装置100は、ハイライトの指定がされたシーンから抽出された画像情報の数が、他のシーンから抽出された画像情報の数よりも多い要約コンテンツを生成する。具体的には、生成装置100は、ハイライトの指定がされたシーンBから抽出された4つの画像情報C10−7、C10−9、C10−10、C10−12を含む要約コンテンツDC11を生成する。また、生成装置100は、ハイライトの指定がされていないシーンAから抽出された2つの画像情報C10−2、C10−5を含む要約コンテンツDC11を生成する。また、生成装置100は、ハイライトの指定がされていないシーンCから抽出された2つの画像情報C10−14、C10−17を含む要約コンテンツDC11を生成する。すなわち、図1に示す例において、生成装置100は、8つの画像情報C10−2、C10−5、C10−7、C10−9、C10−10、C10−12、C10−14、C10−17を含む要約コンテンツDC11を生成する。
By extracting the image information C10 from each scene as described above, the generating
これにより、生成装置100は、適切に動画の内容をユーザに提供する情報を生成することができる。具体的には、生成装置100は、ハイライトの指定がされたシーンBの内容を他のシーンA、Cの内容よりも多く含む要約コンテンツDC11を生成することにより、適切に動画の内容をユーザに提供する情報を生成することができる。なお、生成装置100は、ハイライトに指定された部分に対応する画像情報が要約コンテンツに含まれれば、どのように画像情報を抽出してもよい。例えば、要約コンテンツは、ハイライトの指定がされたシーンBから抽出した画像情報が含まれれば、シーンAやシーンCから抽出した画像情報が含まれなくてもよい。また、図1に示す例においては、複数のシーンから1つのシーンをハイライトとして指定する場合を示したが、ハイライトは、複数のシーンが指定されてもよいし、シーンによる指定ではなく例えば10秒から15秒の間等の時間による指定であってもよい。
Thereby, the production |
〔1−2.表示処理〕
次に、図2を用いて、実施形態に係る端末装置10における表示処理の一例について説明する。図2は、実施形態に係る端末装置における表示処理の一例を示す図である。図2に示す例においては、生成装置100から要約コンテンツDC11が配信された端末装置10に、要約コンテンツDC11が表示される場合を示す。具体的には、端末装置10が、生成装置100から配信された要約コンテンツDC11を所定のコンテンツ中の表示領域AR10に表示する場合を示す。図2に示す例においては、端末装置10がタッチパネル機能を有するスマートフォンである場合を示す。
[1-2. Display processing)
Next, an example of display processing in the
図2に示す例では、端末装置10は、ユーザによる上下方向へのスクロール操作に応じて、端末装置10の画面DP10における表示領域AR10の表示位置が上下方向に移動することに応じて、要約コンテンツDC11の表示を変更する。なお、図2に示す例では、表示領域AR10は、画面DP10の下側から徐々に画面DP10に表示されるものとする。図2に示す例において、端末装置10の画面DP10には、8つの画像情報C10が、画像情報C10−2、C10−5、C10−7、C10−9、C10−10、C10−12、C10−14、C10−17の順序で表示される。つまり、要約コンテンツDC11において、最初に表示される画像情報は画像情報C10−2であり、最後に表示される画像情報は画像情報C10−17である。
In the example illustrated in FIG. 2, the
また、図2に示す例においては、端末装置10の表示内容の変更に応じて、端末装置10を端末装置10−1〜端末装置10−9として説明する。なお、端末装置10−1〜10−9は同一の端末装置10である。また、以下では、端末装置10−1〜端末装置10−9について、特に区別なく説明する場合には、端末装置10と記載する。
In the example illustrated in FIG. 2, the
また、図2に示す例においては、端末装置10の画面DP10における上端を上端TP1とし、画面DP10における下端を下端BT1とし、画面DP10における上下方向の中間を中間MD1として説明する。また、図2に示す例においては、画面DP10において画像情報C10が表示される表示領域AR10の上端を上端TP2とし、表示領域AR10の下端を下端BT2とし、表示領域AR10の上下方向の中間を中間MD2として説明する。
In the example illustrated in FIG. 2, the upper end of the
まず、図2に示す例において、端末装置10−1は、表示領域AR10の下端BT2が画面DP10に表示されていないため、ユーザによる上下方向へのスクロール操作が行われても、最初の画像情報C10−2を表示した状態を維持する。ここで、端末装置10は、ユーザにより表示領域AR10の画面DP10における位置を上側へ移動させるスクロール操作(以下、「下スクロール」とする場合がある)が行われた場合(ステップS21)、表示領域AR10の下端BT2が画面DP10の下端BT1に到達する。
First, in the example shown in FIG. 2, since the lower end BT2 of the display area AR10 is not displayed on the screen DP10, the terminal device 10-1 does not display the first image information even if the user performs a scroll operation in the vertical direction. The state where C10-2 is displayed is maintained. Here, when the user performs a scroll operation (hereinafter, may be referred to as “down scroll”) that moves the position of the display area AR10 on the screen DP10 upward (step S21), the
そして、端末装置10−2は、表示領域AR10の下端BT2が画面DP10の下端BT1に到達した状態を示しており、表示領域AR10には画像情報C10−2が表示される。端末装置10−2は、ユーザにより下スクロールが行われた場合(ステップS22)、表示領域AR10の移動に応じて画像情報C10−2から次の画像情報C10−5へ表示領域AR10の表示を変更する。 The terminal device 10-2 shows a state where the lower end BT2 of the display area AR10 has reached the lower end BT1 of the screen DP10, and the image information C10-2 is displayed in the display area AR10. When the user scrolls down (step S22), the terminal device 10-2 changes the display of the display area AR10 from the image information C10-2 to the next image information C10-5 according to the movement of the display area AR10. To do.
また、端末装置10−3は、表示領域AR10の下端BT2が画面DP10の下端BT1よりも上に位置する状態を示しており、表示領域AR10には画像情報C10−5が表示される。そして、端末装置10−3は、ユーザにより下スクロールが行われた場合(ステップS23)、表示領域AR10の移動に応じて画像情報C10−5から次の画像情報C10−7へ表示領域AR10の表示を変更する。なお、端末装置10−3は、ユーザにより表示領域AR10の画面DP10における位置を下側へ移動させるスクロール操作(以下、「上スクロール」とする場合がある)が行われた場合、表示領域AR10の移動に応じて画像情報C10−5から前の画像情報C10−2へ表示領域AR10の表示を変更する。このように、端末装置10は、上スクロールにより表示領域AR10の表示を前の状態に戻すことができる。すなわち、端末装置10は、下スクロールや上スクロールにより、表示領域AR10の表示を次の状態に進めたり、前の状態に戻したりすることができる。
Further, the terminal device 10-3 shows a state where the lower end BT2 of the display area AR10 is located above the lower end BT1 of the screen DP10, and the image information C10-5 is displayed in the display area AR10. When the user scrolls down (step S23), the terminal device 10-3 displays the display area AR10 from the image information C10-5 to the next image information C10-7 according to the movement of the display area AR10. To change. Note that the terminal device 10-3 causes the display area AR10 to be displayed when the user performs a scroll operation for moving the position of the display area AR10 on the screen DP10 downward (hereinafter, sometimes referred to as “upward scroll”). In accordance with the movement, the display of the display area AR10 is changed from the image information C10-5 to the previous image information C10-2. Thus, the
また、端末装置10−4は、表示領域AR10の位置が端末装置10−3における表示領域AR10の位置より上である状態を示しており、表示領域AR10には画像情報C10−7が表示される。そして、端末装置10−4は、ユーザにより下スクロールが行われた場合(ステップS24)、表示領域AR10の移動に応じて画像情報C10−7から次の画像情報C10−9へ表示領域AR10の表示を変更する。 Further, the terminal device 10-4 shows a state where the position of the display area AR10 is above the position of the display area AR10 in the terminal device 10-3, and the image information C10-7 is displayed in the display area AR10. . When the user scrolls down (step S24), the terminal device 10-4 displays the display area AR10 from the image information C10-7 to the next image information C10-9 according to the movement of the display area AR10. To change.
また、端末装置10−5は、表示領域AR10の位置が端末装置10−4における表示領域AR10の位置より上である状態を示しており、表示領域AR10には画像情報C10−9が表示される。そして、端末装置10−5は、ユーザにより下スクロールが行われた場合(ステップS25)、表示領域AR10の移動に応じて画像情報C10−9から次の画像情報C10−10へ表示領域AR10の表示を変更する。 Further, the terminal device 10-5 shows a state in which the position of the display area AR10 is above the position of the display area AR10 in the terminal device 10-4, and the image information C10-9 is displayed in the display area AR10. . When the user scrolls down (step S25), the terminal device 10-5 displays the display area AR10 from the image information C10-9 to the next image information C10-10 according to the movement of the display area AR10. To change.
また、端末装置10−6は、表示領域AR10の位置が端末装置10−5における表示領域AR10の位置より上である状態を示しており、表示領域AR10には画像情報C10−10が表示される。ここで、端末装置10−6は、表示領域AR10の中間MD2が画面DP10の中間MD1に到達した状態を示しており、ハイライトに指定されたシーンBから抽出された画像情報C10−10が表示領域AR10に表示される。このように、端末装置10は、要約コンテンツDC11を表示する表示領域AR10の中間MD2が画面DP10の中間MD1に到達した時点において、ハイライトに指定されたシーンBから抽出された画像情報が表示領域AR10に表示されるように表示領域AR10の表示を切り替える。これにより、端末装置10は、ユーザが視認しやすい画面DP10の中央部においてハイライトに指定されたシーンBから抽出された画像情報を表示させることができる。
The terminal device 10-6 shows a state in which the position of the display area AR10 is above the position of the display area AR10 in the terminal device 10-5, and the image information C10-10 is displayed in the display area AR10. . Here, the terminal device 10-6 shows a state where the intermediate MD2 of the display area AR10 has reached the intermediate MD1 of the screen DP10, and the image information C10-10 extracted from the scene B designated as the highlight is displayed. It is displayed in the area AR10. As described above, the
そして、端末装置10−6は、ユーザにより下スクロールが行われた場合(ステップS26)、表示領域AR10の移動に応じて画像情報C10−10から次の画像情報C10−12へ表示領域AR10の表示を変更する。 When the user scrolls down (step S26), the terminal device 10-6 displays the display area AR10 from the image information C10-10 to the next image information C10-12 according to the movement of the display area AR10. To change.
また、端末装置10−7は、表示領域AR10の位置が端末装置10−6における表示領域AR10の位置より上である状態を示しており、表示領域AR10には画像情報C10−12が表示される。そして、端末装置10−7は、ユーザにより下スクロールが行われた場合(ステップS27)、表示領域AR10の移動に応じて画像情報C10−12から次の画像情報C10−14へ表示領域AR10の表示を変更する。 The terminal device 10-7 shows a state in which the position of the display area AR10 is above the position of the display area AR10 in the terminal device 10-6, and the image information C10-12 is displayed in the display area AR10. . Then, when the user scrolls down (step S27), the terminal device 10-7 displays the display area AR10 from the image information C10-12 to the next image information C10-14 according to the movement of the display area AR10. To change.
また、端末装置10−8は、表示領域AR10の位置が端末装置10−7における表示領域AR10の位置より上である状態を示しており、表示領域AR10には画像情報C10−14が表示される。そして、端末装置10−8は、ユーザにより下スクロールが行われた場合(ステップS28)、表示領域AR10の移動に応じて画像情報C10−14から次の画像情報C10−17へ表示領域AR10の表示を変更する。 The terminal device 10-8 shows a state in which the position of the display area AR10 is above the position of the display area AR10 in the terminal device 10-7, and image information C10-14 is displayed in the display area AR10. . Then, when the user scrolls down (step S28), the terminal device 10-8 displays the display area AR10 from the image information C10-14 to the next image information C10-17 according to the movement of the display area AR10. To change.
また、端末装置10−9は、表示領域AR10の位置が端末装置10−8における表示領域AR10の位置より上である状態を示しており、表示領域AR10には画像情報C10−17が表示される。ここで、端末装置10−9は、表示領域AR10の上端TP2が画面DP10の上端TP1に到達した状態を示す。ここに、要約コンテンツDC11は、表示領域AR10の上端TP2が画面DP10の上端TP1に到達した時点において、最後の画像情報C10−17まで表示される。また、端末装置10−9は、ユーザにより下スクロールが行われた場合、表示領域AR10が表示されなくなるまで、最後の画像情報C10−17を表示した状態を維持する。 The terminal device 10-9 shows a state in which the position of the display area AR10 is above the position of the display area AR10 in the terminal device 10-8, and the image information C10-17 is displayed in the display area AR10. . Here, the terminal device 10-9 shows a state where the upper end TP2 of the display area AR10 has reached the upper end TP1 of the screen DP10. Here, the summary content DC11 is displayed up to the last image information C10-17 when the upper end TP2 of the display area AR10 reaches the upper end TP1 of the screen DP10. Further, when the user scrolls down, the terminal device 10-9 maintains the state where the last image information C10-17 is displayed until the display area AR10 is not displayed.
上述した表示処理により、端末装置10を利用するユーザは、自身のスクロール操作に応じて表示態様が変動する要約コンテンツDC11を閲覧することができる。これにより、端末装置10は、要約コンテンツDC11はユーザが画面に注視している際に、表示態様が変動するため、適切に動画情報の内容をユーザに提供することができる。具体的には、端末装置10は、ハイライトの指定がされたシーンBの内容を他のシーンA、Cの内容よりも多く含む要約コンテンツDC11をユーザに閲覧させることにより、適切に動画情報の内容をユーザに提供することができる。なお、上記例においては、表示領域AR10が画面DP10の下側から上側へ移動する例を示したが、表示領域AR10が画面DP10の上側から下側へ移動する場合、すなわち、端末装置10は、表示領域AR10が端末装置10−9の位置から端末装置10−1の位置へ移動するように操作された場合、最初の画像情報C10−2から順に表示を開始してもよいし、最後の画像情報C10−17から順に表示を開始してもよい。
Through the display process described above, the user who uses the
〔2.配信システムの構成〕
図3に示すように、配信システム1は、端末装置10と、生成装置100とが含まれる。端末装置10と、生成装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る配信システムの構成例を示す図である。なお、図3に示した配信システム1には、複数台の端末装置10や、複数台の生成装置100が含まれてもよい。
[2. Distribution system configuration)
As illustrated in FIG. 3, the distribution system 1 includes a
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。なお、上述した端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。
The
生成装置100は、ユーザによるハイライトの指定に基づいて、動画情報からハイライトの指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを生成する情報処理装置である。また、生成装置100は、生成した要約コンテンツを端末装置10へ配信する。
The
〔3.生成装置の構成〕
次に、図4を用いて、実施形態に係る生成装置100の構成について説明する。図4は、実施形態に係る生成装置の構成例を示す図である。図4に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of the generator
Next, the configuration of the
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、動画情報記憶部121と、画像情報記憶部122とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 4, the storage unit 120 according to the embodiment includes a moving image
(動画情報記憶部121)
実施形態に係る動画情報記憶部121は、動画に関する各種情報を記憶する。図5に、実施形態に係る動画情報記憶部121の一例を示す。図5に示す動画情報記憶部121は、「ユーザID」、「動画ID」、「時間」、「シーン」、「ハイライト」といった項目を有する。
(Movie information storage unit 121)
The moving image
「ユーザID」は、対応する動画情報を登録したユーザを識別するための識別情報を示す。「動画ID」は、動画情報を識別するための識別情報を示す。「時間」は、対応する動画情報の時間を示す。また、「シーン」は、対応する動画情報に含まれるシーンの動画情報中における位置を示す。「ハイライト」は、指定された動画情報中のハイライトを示す。 “User ID” indicates identification information for identifying the user who registered the corresponding moving image information. “Movie ID” indicates identification information for identifying movie information. “Time” indicates the time of the corresponding moving image information. “Scene” indicates a position in the moving image information of the scene included in the corresponding moving image information. “Highlight” indicates a highlight in the specified moving image information.
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザは、動画ID「MV11」により識別される動画情報や動画ID「MV12」により識別される動画情報や動画ID「MV13」により識別される動画情報を登録したことを示す。また、動画ID「MV11」により識別される動画情報の時間は「30秒」であり、最初のシーンAは「0〜10秒」の間であり、次のシーンBは「10〜20秒」の間であり、最後のシーンCは「20〜30秒」の間であることを示す。また、動画ID「MV11」により識別される動画情報のハイライトは「シーンB」であることを示す。 For example, in the example illustrated in FIG. 5, the user identified by the user ID “U1” is the movie information identified by the movie ID “MV11”, the movie information identified by the movie ID “MV12”, and the movie ID “MV13”. Indicates that the moving image information identified by is registered. The time of the moving image information identified by the moving image ID “MV11” is “30 seconds”, the first scene A is between “0 to 10 seconds”, and the next scene B is “10 to 20 seconds”. The last scene C is between “20-30 seconds”. Further, the highlight of the moving image information identified by the moving image ID “MV11” indicates “scene B”.
なお、「ハイライト」は、1つのシーンだけでなく、複数のシーンであってもよい。図5に示す例において、動画ID「MV12」により識別される動画情報のハイライトは、2つのシーンB及びシーンCであることを示す。また、「ハイライト」は、シーンによる指定だけでなく、秒数による指定であってもよい。図5に示す例において、動画ID「MV13」により識別される動画情報のハイライトは、100〜150秒の間であることを示す。 The “highlight” may be not only one scene but also a plurality of scenes. In the example illustrated in FIG. 5, the highlight of the moving image information identified by the moving image ID “MV12” indicates that there are two scenes B and C. The “highlight” may be specified not only by the scene but also by the number of seconds. In the example illustrated in FIG. 5, the highlight of the moving image information identified by the moving image ID “MV13” is between 100 and 150 seconds.
また、動画情報記憶部121は、動画IDにより識別される動画情報を記憶する。なお、動画情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、動画情報記憶部121は、動画情報の格納場所を示すファイルパス名などを記憶してもよい。
The moving image
(画像情報記憶部122)
実施形態に係る画像情報記憶部122は、画像に関する各種情報を記憶する。図6に、実施形態に係る画像情報記憶部122の一例を示す。図6に示す画像情報記憶部122は、「ユーザID」、「コンテンツID」、「動画ID」、「ハイライト」、「画像情報」、「スクロール回数」といった項目を有する。
(Image information storage unit 122)
The image
「ユーザID」は、対応する動画情報を登録したユーザを識別するための識別情報を示す。「コンテンツID」は、要約コンテンツを識別するための識別情報を示す。「動画ID」は、動画情報を識別するための識別情報を示す。「ハイライト」は、指定された動画情報中のハイライトを示す。「画像情報」は、対応する要約コンテンツに含まれる画像情報を示す。例えば、「画像1」は、対応する要約コンテンツにおける最初の画像情報を識別する識別情報を示す。また、「スクロール回数」は、対応する要約コンテンツが配信された端末装置におけるスクロール回数を示す。例えば、「スクロール回数」は、端末装置10において要約コンテンツが表示された際に、要約コンテンツの表示を進める方向(例えば上方向)に間欠的にスクロールした回数であってもよい。なお、「スクロール回数」は、目的に応じて種々の条件によりカウントされたスクロール回数であってもよい。また、「スクロール回数」は、端末装置10において要約コンテンツが表示される表示領域の近傍に表示されてもよい。また、「スクロール切替え数」は、対応する要約コンテンツが配信された端末装置におけるスクロールの切り替え数を示す。ここでいうスクロール切替えとは、ユーザが所定方向にスクロール操作を行った後、所定方向と反対方向にスクロール操作を行うことをいう。例えば、「スクロール切替え数」は、端末装置10において要約コンテンツが表示中において、ユーザが要約コンテンツの表示を進める方向(例えば上方向)に操作した後、その後要約コンテンツの表示を戻す方向(例えば下方向)に操作した場合を1回とカウントする。また、ユーザが要約コンテンツの表示を進める方向(例えば上方向)に再度スクロール操作した場合を1回とカウントしてもよい。このように、生成装置100は、「スクロール切替え数」をカウントすることにより、ユーザが要約コンテンツにどれだけ関心を持っているかを推定することが可能となる。
“User ID” indicates identification information for identifying the user who registered the corresponding moving image information. “Content ID” indicates identification information for identifying summary content. “Movie ID” indicates identification information for identifying movie information. “Highlight” indicates a highlight in the specified moving image information. “Image information” indicates image information included in the corresponding summary content. For example, “Image 1” indicates identification information for identifying the first image information in the corresponding summary content. The “number of scrolls” indicates the number of scrolls in the terminal device to which the corresponding summary content is distributed. For example, the “number of scrolls” may be the number of times that the summary content is scrolled intermittently in the direction in which the summary content is displayed (for example, upward) when the summary content is displayed on the
例えば、図6に示す例において、コンテンツID「DC11」により識別される要約コンテンツは、動画ID「MV11」により識別される動画情報から生成されたことを示す。また、コンテンツID「DC11」により識別される要約コンテンツにおけるハイライト部分は、対応する動画情報における「シーンB」に対応する部分であることを示す。また、コンテンツID「DC11」により識別される要約コンテンツは、画像ID「C10−2」により識別される画像情報や画像ID「C10−5」により識別される画像情報や画像ID「C10−7」により識別される画像情報を含むことを示す。例えば、画像ID「C10−5」により識別される画像情報は、図1に示す画像情報C10−5に対応する。また、コンテンツID「DC11」により識別される要約コンテンツは、配信された端末装置10においてスクロール操作がされた回数が「100回」であることを示す。また、コンテンツID「DC11」により識別される要約コンテンツは、配信された端末装置10においてスクロールの切り替え操作行われた回数が「50回」であることを示す。なお、スクロール操作に対するスクロールの切り替え操作の割合は、その要約コンテンツが繰り返し閲覧されたか示す指標とすることができる。例えば、コンテンツID「DC12」により識別される要約コンテンツは、1回もスクロールの切り替え操作が行われなかった、すなわち、誰も繰り返し閲覧しなかったことを示す。言い換えると、スクロール操作に対するスクロールの切り替え操作の割合は、その要約コンテンツが適切なハイライトの指定により生成されているかを示す指標となり得る。例えば、スクロール操作の回数が多くても、スクロールの切り替え操作がほとんど行われていない場合、その要約コンテンツは、表示された回数が多いのみで、ユーザの関心を引くことができなかった可能性が高い。このような場合、生成装置100は、例えば、スクロールの切り替え操作の回数が増えるように、ハイライトの指定を変更して、新たに要約コンテンツを生成してもよい。
For example, in the example illustrated in FIG. 6, the summary content identified by the content ID “DC11” is generated from the video information identified by the video ID “MV11”. Further, the highlight portion in the summary content identified by the content ID “DC11” indicates that the portion corresponds to “scene B” in the corresponding moving image information. The summary content identified by the content ID “DC11” includes the image information identified by the image ID “C10-2”, the image information identified by the image ID “C10-5”, and the image ID “C10-7”. The image information identified by is included. For example, the image information identified by the image ID “C10-5” corresponds to the image information C10-5 illustrated in FIG. The summary content identified by the content ID “DC11” indicates that the number of times the scroll operation has been performed in the distributed
また、画像情報記憶部122は、画像情報IDにより識別される画像情報を記憶する。なお、画像情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、画像情報記憶部122は、画像情報の格納場所を示すファイルパス名などを記憶してもよい。また、画像情報記憶部122は、スクロール回数やスクロール切替え数だけでなく、要約コンテンツに対する操作に関する情報であれば、目的に応じて種々の情報を記憶してもよい。例えば、画像情報記憶部122は、スクロール切替えが要約コンテンツ中のどのシーンで行われたかを記録してもよい。例えば、画像情報記憶部122は、スクロール切替えに関する情報として、各シーンのスクロール切替え回数を記憶してもよい。これにより、生成装置100は、ユーザがどのシーンに関心を持ってスクロール切替えを行ったかを把握でき、ハイライトの推定を精度良く行うこと等が可能となる。
The image
(制御部130)
図4の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130, for example, various programs (an example of a generation program) stored in a storage device inside the
図4に示すように、制御部130は、受付部131と、生成部132と、配信部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。 As illustrated in FIG. 4, the control unit 130 includes a reception unit 131, a generation unit 132, and a distribution unit 133, and implements or executes information processing functions and operations described below. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 4, and may be another configuration as long as the information processing described below is performed. In addition, the connection relationship between the processing units included in the control unit 130 is not limited to the connection relationship illustrated in FIG. 4, and may be another connection relationship.
(受付部131)
例えば、受付部131は、ユーザが利用する端末装置10から動画情報の登録を受け付ける。また、例えば、受付部131は、受け付けた動画情報を動画情報記憶部121に記憶する。また、受付部131は、動画情報におけるハイライトの指定を受け付ける、また、受付部131は、生成した要約コンテンツの配信要求を受け付ける。例えば、受付部131は、所定のコンテンツの表示領域に表示する要約コンテンツの配信要求を受け付ける。また、受付部131は、要約コンテンツを他のサービスに投稿する操作を受け付けてもよい。
(Reception unit 131)
For example, the reception unit 131 receives registration of moving image information from the
(生成部132)
生成部132は、受付部131により受け付けられたハイライトの指定に基づいて、動画情報からハイライトの指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを生成する。例えば、生成部132は、動画情報MV11におけるシーンBをハイライトとする指定に基づいて、動画情報MV11からハイライトの指定がされた範囲であるシーンBと、他の範囲であるシーンA及びシーンCとを異なる間隔で抽出した複数の画像情報C10を含む要約コンテンツDC11を生成する。
(Generator 132)
The generating unit 132 includes a plurality of pieces of image information obtained by extracting a range in which highlight is specified from the moving image information and other ranges at different intervals based on the specification of highlight received by the receiving unit 131. Generate content. For example, the generation unit 132, based on the designation that the scene B in the video information MV11 is highlighted, the scene B that is the range where the highlight is designated from the video information MV11, and the scene A and the scene that are other ranges. Summary content DC11 including a plurality of pieces of image information C10 extracted from C at different intervals is generated.
生成部132は、端末装置10において所定の方向(例えば下方向)にスクロール可能に表示されるコンテンツに含まれる表示領域に、所定の方向へのスクロールに応じて、所定の順序で複数の画像情報が連続して表示される要約コンテンツを生成する。また、生成部132は、端末装置10において表示領域が所定の方向の中央に表示される際に、複数の画像情報のうち、ハイライトの指定がされた範囲に対応する画像情報が表示される要約コンテンツを生成する。例えば、生成部132は、動画情報MV11におけるシーンBをハイライトとする指定に基づいて、端末装置10において表示領域AR10が上下方向の中央に表示される際に、ハイライトの指定がされた範囲であるシーンBに対応する画像情報C10−10が表示される要約コンテンツDC11を生成する。また、生成部132は、所定の方向とは逆方向(例えば上方向)へのスクロールに応じて、所定の順序とは逆の順序で複数の画像情報が連続して表示される要約コンテンツを生成する。また、生成部132は、要約コンテンツに基づいて、他のサービスに投稿する動画情報を生成してもよい。
The generation unit 132 displays a plurality of pieces of image information in a predetermined order in a display area included in content displayed to be scrollable in a predetermined direction (for example, downward) on the
(配信部133)
配信部133は、配信要求に応じて対応する要約コンテンツを端末装置10へ配信する。例えば、配信部133は、配信要求に応じて生成部132により生成された要約コンテンツCD11を端末装置10へ配信する。
(Distribution unit 133)
The distribution unit 133 distributes the corresponding summary content to the
〔4.端末装置の構成〕
次に、図7を用いて、実施形態に係る端末装置10の構成について説明する。図7は、実施形態に係る端末装置10の構成例を示す図である。図7に示すように、端末装置10は、通信部11と、記憶部12と、入力部13と、出力部14と、制御部15とを有する。
[4. Configuration of terminal device]
Next, the configuration of the
(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、生成装置100との間で情報の送受信を行う。
(Communication unit 11)
The communication unit 11 is realized by a communication circuit or the like, for example. The communication unit 11 is connected to a predetermined communication network (not shown) in a wired or wireless manner, and transmits / receives information to / from the
(記憶部12)
記憶部12は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部12は、例えば、端末装置10にインストールされているアプリケーションに関する情報、例えばプログラム等を記憶する。
(Storage unit 12)
The
(入力部13)
入力部13は、ユーザからの各種操作を受け付ける。例えば、入力部13は、タッチパネル機能により表示面(例えば表示部154)を介してユーザからの各種操作を受け付けてもよい。また、入力部13は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input unit 13)
The input unit 13 receives various operations from the user. For example, the input unit 13 may accept various operations from the user via a display surface (for example, the display unit 154) by a touch panel function. Further, the input unit 13 may accept various operations from buttons provided on the
(出力部14)
出力部14は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。出力部14は、例えば、図1に示す例における端末装置10の画面DP10に対応する。
(Output unit 14)
The output unit 14 is a display screen such as a tablet terminal realized by, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and is a display device for displaying various types of information. The output unit 14 corresponds to, for example, the screen DP10 of the
(制御部15)
制御部15は、例えば、CPUやMPU等によって、端末装置10内部の記憶部12などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、インストールされているアプリケーションのプログラムが含まれる。また、制御部15は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 15)
The control unit 15 is realized, for example, by executing various programs stored in a storage device such as the
図7に示すように、制御部15は、受付部151と、送信部152と、受信部153と、表示部154とを有し、以下に説明する生成処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図7に示した構成に限られず、後述する生成処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図7に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 7, the control unit 15 includes a reception unit 151, a transmission unit 152, a
受付部151は、例えば入力部13を介してユーザにより各種操作を受け付ける。例えば、受付部151は、表示部154により表示された要約コンテンツの表示を変更するユーザ操作を受け付ける。例えば、受付部151は、出力部14(画面DP10)に表示された表示領域AR10の位置を移動させるユーザ操作を受け付ける。例えば、受付部151は、ユーザによる上スクロール操作や下スクロール操作を受け付ける。 The accepting unit 151 accepts various operations by the user via the input unit 13, for example. For example, the reception unit 151 receives a user operation for changing the display of the summary content displayed by the display unit 154. For example, the reception unit 151 receives a user operation for moving the position of the display area AR10 displayed on the output unit 14 (screen DP10). For example, the reception unit 151 receives an up scroll operation and a down scroll operation by the user.
送信部152は、外部装置へ種々の情報を送信する。送信部152は、受付部151により受け付けたユーザ操作に従って、生成装置100へ配信要求を送信する。例えば、送信部152は、受付部151により受け付けたユーザ操作に従って、生成装置100へ要約コンテンツの配信要求を送信する。また、送信部152は、受付部151により受け付けたユーザ操作に従って、動画情報を生成装置100へ送信してもよい。
The transmission unit 152 transmits various information to the external device. The transmission unit 152 transmits a distribution request to the
受信部153は、外部装置から配信された種々の情報を受信する。受信部153は、生成装置100や他の外部装置から配信された種々のコンテンツを受信する。受信部153は、生成装置100から配信された要約コンテンツを受信する。
The receiving
表示部154は、動画情報から生成された要約コンテンツであって、ハイライトの指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを表示する。例えば、表示部154は、受信部153により受信された要約コンテンツを出力部14に表示する。
The display unit 154 displays the summary content generated from the moving image information and includes a plurality of pieces of image information obtained by extracting a range in which highlight is designated and other ranges at different intervals. For example, the display unit 154 displays the summary content received by the receiving
また、表示部154は、所定の方向にスクロール可能に表示されるコンテンツに含まれる表示領域に、所定の方向へのスクロールに応じて、所定の順序で複数の画像情報が連続して表示される要約コンテンツを表示する。例えば、表示部154は、上下方向にスクロール可能に表示されるコンテンツに含まれる表示領域AR10に、上下方向へのスクロールに応じて、所定の順序で複数の画像情報C10が連続して表示される要約コンテンツDC11を表示する。 In addition, the display unit 154 displays a plurality of pieces of image information in a predetermined order continuously in a display area included in content displayed so as to be scrollable in a predetermined direction according to the scroll in the predetermined direction. Display summary content. For example, the display unit 154 continuously displays a plurality of pieces of image information C10 in a predetermined order in the display area AR10 included in the content that is displayed so as to be scrollable in the vertical direction, according to the scroll in the vertical direction. Summary content DC11 is displayed.
また、表示部154は、表示領域が画面における所定の方向の中央に表示される際に、複数の画像情報のうち、ハイライトの指定がされた範囲に対応する画像情報が表示される要約コンテンツを表示する。例えば、表示部154は、表示領域AR10が画面における上下方向の中央に表示される際に、複数の画像情報C10のうち、ハイライトの指定がされた範囲であるシーンBに対応する画像情報C10−10が表示される要約コンテンツDC11を表示する。 In addition, the display unit 154 displays summary content in which image information corresponding to a range in which highlight is designated is displayed among a plurality of pieces of image information when the display area is displayed in the center of a predetermined direction on the screen. Is displayed. For example, the display unit 154 displays the image information C10 corresponding to the scene B that is the range in which the highlight is specified among the plurality of pieces of image information C10 when the display area AR10 is displayed at the center in the vertical direction on the screen. Summary content DC11 on which −10 is displayed is displayed.
また、表示部154は、所定の方向とは逆方向へのスクロールに応じて、所定の順序とは逆の順序で複数の画像情報が連続して表示される要約コンテンツを表示する。例えば、表示部154は、下方向とは逆方向である上方向へのスクロールに応じて、所定の順序とは逆の順序で複数の画像情報C10が連続して表示される要約コンテンツDC11を表示する。 The display unit 154 displays summary content in which a plurality of pieces of image information are continuously displayed in an order reverse to the predetermined order in response to scrolling in a direction opposite to the predetermined direction. For example, the display unit 154 displays the summary content DC11 in which a plurality of pieces of image information C10 are continuously displayed in an order reverse to a predetermined order in response to scrolling in an upward direction that is the reverse direction to the downward direction. To do.
なお、上述した制御部15による表示処理等の処理は、例えば、JavaScript(登録商標)などにより実現されてもよい。また、上述した表示処理が所定のアプリケーションにより行われる場合や表示処理が専用アプリにより行われる場合、制御部15は、例えば、所定のアプリや専用アプリを制御するアプリ制御部を有してもよい。 Note that the processing such as the display processing by the control unit 15 described above may be realized by, for example, JavaScript (registered trademark). In addition, when the display process described above is performed by a predetermined application or when the display process is performed by a dedicated application, the control unit 15 may include, for example, an application control unit that controls the predetermined application or the dedicated application. .
〔5.要約コンテンツの他のサービスへの投稿〕
ここで、生成装置100は、ユーザによる操作に応じて、他のサービスへ投稿する動画情報を要約コンテンツに基づいて生成してもよい。図8を用いて、要約コンテンツの他のサービスへの投稿の一例を説明する。図8は、実施形態に係る要約コンテンツの投稿の一例を示す図である。なお、図8中の端末装置10−6と図2中の端末装置10−6とは同じ表示内容である。
[5. Posting summary content to other services)
Here, the
図8に示す例において、端末装置10の画面DP10に表示された表示領域AR10には画像情報C10−10が表示される。また、端末装置10の画面DP10に表示された表示領域AR10の下部には、他のサービスへ要約コンテンツに基づく動画情報を投稿するためのボタンBT10が表示される。例えば、端末装置10の画面DP10に表示されたボタンBT10をユーザがタッチすることにより、他のソーシャルメディアへ要約コンテンツに基づく動画情報が投稿される。
In the example shown in FIG. 8, image information C10-10 is displayed in the display area AR10 displayed on the screen DP10 of the
例えば、端末装置10の画面DP10に表示されたボタンBT10をユーザがタッチした場合、端末装置10は、ボタンBT10がタッチされたことを示す情報を生成装置100へ送信する。その後、生成装置100は、ボタンBT10に対応する要約コンテンツに基づいて他のサービスへ投稿する動画情報を生成する。例えば、生成装置100は、要約コンテンツに含まれる複数の画像情報に対応するコマからなる動画情報を生成してもよい。また、例えば、生成装置100は、要約コンテンツにおけるハイライトに対応する部分のみを含む動画情報を生成してもよい。生成装置100は、要約コンテンツに基づく動画情報を他のサービスを提供する外部装置へ送信することにより、要約コンテンツに基づく動画情報を他のサービスへ投稿してもよい。なお、端末装置10は、表示領域AR10の下部に、ボタンBT10等と並べて画像情報記憶部122に記憶された要約コンテンツDC11のスクロール回数を表示してもよい。
For example, when the user touches the button BT10 displayed on the screen DP10 of the
〔6.ハイライトに対応する画像情報の表示〕
次に、ハイライトに指定された部分に対応する画像情報の表示について説明する。図9は、実施形態に係る端末装置におけるハイライトの表示位置の一例を示す図である。なお、図9に示す例においては、図2と同様に、表示領域AR10の全体が画面DP10に表示されている間において、表示領域AR10における要約コンテンツの表示が切り替わるものとする。また、図9に示す例においては、図2と同様に、動画情報が3つのシーンA、シーンB、シーンCに分割された場合を例に説明する。図9に示す例においては、図2と同様に、画面DP10の下側から上側へ向かって表示領域AR10を移動させる場合を例に示す。
[6. (Display of image information corresponding to highlight)
Next, display of image information corresponding to a portion designated as highlight will be described. FIG. 9 is a diagram illustrating an example of a highlight display position in the terminal device according to the embodiment. In the example shown in FIG. 9, the summary content display in the display area AR <b> 10 is switched while the entire display area AR <b> 10 is displayed on the screen DP <b> 10, as in FIG. 2. In the example shown in FIG. 9, the case where the moving image information is divided into three scenes A, B, and C will be described as an example, as in FIG. In the example shown in FIG. 9, as in FIG. 2, a case where the display area AR10 is moved from the lower side to the upper side of the screen DP10 is shown as an example.
また、図9に示す例においては、端末装置10の画面DP10における表示領域AR10の位置に応じて、端末装置10を端末装置10−21、端末装置10−22として説明する。なお、端末装置10−21、端末装置10−22は同一の端末装置10である。また、以下では、端末装置10−21、端末装置10−22について、特に区別なく説明する場合には、端末装置10と記載する。なお、図9に示す例において、表示領域AR10を図示するため、画面DP10と表示領域AR10との間に隙間を空けて図示する。
In the example illustrated in FIG. 9, the
まず、端末装置10−21は、表示領域AR10の下端BT2の位置が画面DP10の下端BT1の位置と同じである場合を示し、この場合において、表示領域AR10の中間の位置を中間下端位置MD21とする。また、端末装置10−22は、表示領域AR10の上端TP2の位置が画面DP10の上端TP1の位置と同じである場合を示し、この場合において、表示領域AR10の中間の位置を中間上端位置MD22とする。すなわち、図9に示す例においては、表示領域AR10の中間MD2が中間下端位置MD21から中間上端位置MD22まで移動する間、表示領域AR10における要約コンテンツの表示が切り替わる。 First, the terminal device 10-21 shows a case where the position of the lower end BT2 of the display area AR10 is the same as the position of the lower end BT1 of the screen DP10. In this case, the intermediate position of the display area AR10 is set to the intermediate lower end position MD21. To do. Further, the terminal device 10-22 shows a case where the position of the upper end TP2 of the display area AR10 is the same as the position of the upper end TP1 of the screen DP10. In this case, the intermediate position of the display area AR10 is set to the intermediate upper end position MD22. To do. That is, in the example shown in FIG. 9, while the intermediate MD2 of the display area AR10 moves from the intermediate lower end position MD21 to the intermediate upper end position MD22, the summary content display in the display area AR10 is switched.
まず、シーンAがハイライトに指定されたパターンPT11について説明する。この場合、表示領域AR10の画面DP10における移動と、表示領域AR10に表示される画像情報に対応するシーンとの対応はシーン割FR11のようになる。具体的には、表示領域AR10の中間MD2が中間下端位置MD21から画面DP10の中間MD1を超えて所定の位置MD31に到達するまで、シーンAに対応する画像情報が表示領域AR10に表示される。すなわち、表示領域AR10の中間MD2が画面DP10の中間MD1に到達した時点において、ハイライトに指定されたシーンAから抽出された画像情報が表示領域AR10に表示される。これにより、ユーザが視認しやすい画面DP10の中央部においてハイライトに指定されたシーンAから抽出された画像情報を表示させることができる。また、表示領域AR10の中間MD2が所定の位置MD31から所定の位置MD32に到達するまで、シーンBに対応する画像情報が表示領域AR10に表示される。また、表示領域AR10の中間MD2が所定の位置MD32から中間上端位置MD22に到達するまで、シーンCに対応する画像情報が表示領域AR10に表示される。 First, the pattern PT11 in which the scene A is designated as a highlight will be described. In this case, the correspondence between the movement of the display area AR10 on the screen DP10 and the scene corresponding to the image information displayed in the display area AR10 is as in the scene division FR11. Specifically, the image information corresponding to the scene A is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD31 from the intermediate lower end position MD21 beyond the intermediate MD1 of the screen DP10. That is, when the intermediate MD2 of the display area AR10 reaches the intermediate MD1 of the screen DP10, the image information extracted from the scene A designated as the highlight is displayed in the display area AR10. Thereby, the image information extracted from the scene A designated as the highlight can be displayed in the central portion of the screen DP10 that is easy for the user to visually recognize. Further, the image information corresponding to the scene B is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD32 from the predetermined position MD31. Further, the image information corresponding to the scene C is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the intermediate upper end position MD22 from the predetermined position MD32.
次に、シーンBがハイライトに指定されたパターンPT12について説明する。この場合、表示領域AR10の画面DP10における移動と、表示領域AR10に表示される画像情報に対応するシーンとの対応はシーン割FR12のようになる。具体的には、表示領域AR10の中間MD2が中間下端位置MD21から画面DP10の中間MD1より下部に位置する所定の位置MD33に到達するまで、シーンAに対応する画像情報が表示領域AR10に表示される。また、表示領域AR10の中間MD2が所定の位置MD33から画面DP10の中間MD1を超えて所定の位置MD34に到達するまで、シーンBに対応する画像情報が表示領域AR10に表示される。すなわち、表示領域AR10の中間MD2が画面DP10の中間MD1に到達した時点において、ハイライトに指定されたシーンBから抽出された画像情報が表示領域AR10に表示される。これにより、ユーザが視認しやすい画面DP10の中央部においてハイライトに指定されたシーンBから抽出された画像情報を表示させることができる。また、表示領域AR10の中間MD2が所定の位置MD34から中間上端位置MD22に到達するまで、シーンCに対応する画像情報が表示領域AR10に表示される。 Next, the pattern PT12 in which the scene B is designated as a highlight will be described. In this case, the correspondence between the movement of the display area AR10 on the screen DP10 and the scene corresponding to the image information displayed on the display area AR10 is as in the scene division FR12. Specifically, the image information corresponding to the scene A is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD33 located below the intermediate MD1 of the screen DP10 from the intermediate lower end position MD21. The Further, the image information corresponding to the scene B is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD34 from the predetermined position MD33 beyond the intermediate MD1 of the screen DP10. That is, when the intermediate MD2 of the display area AR10 reaches the intermediate MD1 of the screen DP10, the image information extracted from the scene B designated as the highlight is displayed in the display area AR10. Thereby, the image information extracted from the scene B designated as the highlight can be displayed in the central portion of the screen DP10 that is easy for the user to visually recognize. Further, the image information corresponding to the scene C is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the intermediate upper end position MD22 from the predetermined position MD34.
次に、シーンCがハイライトに指定されたパターンPT13について説明する。この場合、表示領域AR10の画面DP10における移動と、表示領域AR10に表示される画像情報に対応するシーンとの対応はシーン割FR13のようになる。具体的には、表示領域AR10の中間MD2が中間下端位置MD21から画面DP10の中間MD1より下部に位置する所定の位置MD35に到達するまで、シーンAに対応する画像情報が表示領域AR10に表示される。また、表示領域AR10の中間MD2が所定の位置MD35から画面DP10の中間MD1より下部に位置する所定の位置MD36に到達するまで、シーンBに対応する画像情報が表示領域AR10に表示される。また、表示領域AR10の中間MD2が所定の位置MD36から画面DP10の中間MD1を超えて中間上端位置MD22に到達するまで、シーンCに対応する画像情報が表示領域AR10に表示される。すなわち、表示領域AR10の中間MD2が画面DP10の中間MD1に到達した時点において、ハイライトに指定されたシーンCから抽出された画像情報が表示領域AR10に表示される。これにより、ユーザが視認しやすい画面DP10の中央部においてハイライトに指定されたシーンCから抽出された画像情報を表示させることができる。 Next, the pattern PT13 in which the scene C is designated as a highlight will be described. In this case, the correspondence between the movement of the display area AR10 on the screen DP10 and the scene corresponding to the image information displayed on the display area AR10 is as in the scene division FR13. Specifically, the image information corresponding to the scene A is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD35 positioned below the intermediate MD1 of the screen DP10 from the intermediate lower end position MD21. The Further, the image information corresponding to the scene B is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD36 located below the intermediate MD1 of the screen DP10 from the predetermined position MD35. Further, the image information corresponding to the scene C is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the intermediate upper end position MD22 from the predetermined position MD36 beyond the intermediate MD1 of the screen DP10. That is, when the intermediate MD2 of the display area AR10 reaches the intermediate MD1 of the screen DP10, the image information extracted from the scene C designated as the highlight is displayed in the display area AR10. Thereby, the image information extracted from the scene C designated as the highlight can be displayed in the central portion of the screen DP10 that is easy for the user to visually recognize.
また、シーンA〜シーンCの全てがハイライトに指定された、言い換えるとハイライトが指定されていないパターンPT14について説明する。この場合、表示領域AR10の画面DP10における移動と、表示領域AR10に表示される画像情報に対応するシーンとの対応はシーン割FR14のようになる。具体的には、各シーンから均等画像情報が抽出されるため、表示領域AR10の中間MD2が画面DP10の中間MD1に到達した時点において、シーンA〜シーンCの中央に位置するシーンBに対応する画像情報が表示領域AR10に表示される。 Further, a description will be given of the pattern PT14 in which all of the scenes A to C are designated as highlights, in other words, no highlight is designated. In this case, the correspondence between the movement of the display area AR10 on the screen DP10 and the scene corresponding to the image information displayed in the display area AR10 is as in the scene division FR14. Specifically, since uniform image information is extracted from each scene, when the intermediate MD2 of the display area AR10 reaches the intermediate MD1 of the screen DP10, it corresponds to the scene B located at the center of the scenes A to C. Image information is displayed in the display area AR10.
具体的には、表示領域AR10の中間MD2が中間下端位置MD21から画面DP10の中間MD1より下部に位置する所定の位置MD37に到達するまで、シーンAに対応する画像情報が表示領域AR10に表示される。また、表示領域AR10の中間MD2が所定の位置MD37から画面DP10の中間MD1を超えて所定の位置MD38に到達するまで、シーンBに対応する画像情報が表示領域AR10に表示される。また、表示領域AR10の中間MD2が所定の位置MD38から中間上端位置MD22に到達するまで、シーンCに対応する画像情報が表示領域AR10に表示される。 Specifically, the image information corresponding to the scene A is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD37 located below the intermediate MD1 of the screen DP10 from the intermediate lower end position MD21. The Further, the image information corresponding to the scene B is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the predetermined position MD38 from the predetermined position MD37 beyond the intermediate MD1 of the screen DP10. Further, the image information corresponding to the scene C is displayed in the display area AR10 until the intermediate MD2 of the display area AR10 reaches the intermediate upper end position MD22 from the predetermined position MD38.
上述の例においては、表示領域AR10の中間の位置に基づく表示領域AR10の表示を切り替える場合を示したが、ハイライトに指定された部分に対応する画像情報の表示については、表示領域の中間の位置に限らず、目的に応じて種々の条件により決定されてもよい。例えば、ハイライトに指定された部分に対応する画像情報の表示は、表示領域の上端や下端の位置に基づいて決定されてもよい。なお、表示領域AR10が画面DP10を上から下へ移動する場合、すなわち、端末装置10−22から端末装置10−21へ変化する場合も、同様に中間MD2が画面DP10の中間MD1に到達した時点において、ハイライトに指定されたシーンから抽出された画像情報が表示領域AR10に表示されるように表示領域AR10の表示を切り替える。 In the above-described example, the case of switching the display of the display area AR10 based on the middle position of the display area AR10 has been shown. However, the display of the image information corresponding to the portion designated as the highlight is the middle of the display area. Not only the position but also various conditions may be determined according to the purpose. For example, the display of the image information corresponding to the portion designated as the highlight may be determined based on the positions of the upper end and the lower end of the display area. When the display area AR10 moves from the top to the bottom of the screen DP10, that is, when the display area AR10 changes from the terminal device 10-22 to the terminal device 10-21, the time when the intermediate MD2 reaches the intermediate MD1 of the screen DP10. The display area AR10 is switched so that the image information extracted from the scene designated as the highlight is displayed in the display area AR10.
〔7.ユーザによるハイライトの指定〕
次に、ユーザによるハイライトの指定について説明する。図10は、実施形態に係る端末装置におけるシーンの表示の一例を示す図である。
[7. (Specify highlight by user)
Next, the highlight designation by the user will be described. FIG. 10 is a diagram illustrating an example of a scene display in the terminal device according to the embodiment.
図10に示す例において、端末装置10の画面DP10には、ユーザが登録した動画情報における4つのシーンSN11、SN12、SN13、SN14が表示される。例えば、ユーザは、画面DP10に表示されたシーンSN11、SN12、SN13、SN14をタッチすることにより、ハイライトに指定するシーンを選択してもよい。例えば、図10に示す例においては、ユーザはシーンSN12をハイライトに指定する(ステップS31)。ユーザによるハイライトの指定を受け付けた端末装置10は、ハイライトの指定に関する情報を生成装置100へ送信する。端末装置10からハイライトの指定を受け付けて生成装置100は、受け付けたハイライトの指定に基づいて要約コンテンツを生成する。
In the example shown in FIG. 10, on the screen DP10 of the
また、図10に示す例において、ユーザは複数のシーンをハイライトに指定したい場合、例えば、シーンSN12にタッチした指をシーンSN13が表示された位置まで移動させることにより、シーンSN12とシーンSN13との2つのシーンをハイライトとして指定してもよい。 In the example shown in FIG. 10, when the user wants to designate a plurality of scenes as highlights, for example, by moving the finger touching the scene SN12 to the position where the scene SN13 is displayed, the scene SN12 and the scene SN13 are displayed. These two scenes may be designated as highlights.
なお、図10に示すハイライトの指定は一例であって、ユーザがハイライトを指定可能であれば、端末装置10は、どのように動画情報を表示してもよい。例えば、端末装置10は、動画情報の全コマに対応する画像情報を画面DP10に表示し、ユーザが選択した範囲の画像情報に対応する範囲をハイライトの指定がされた部分としてもよい。
Note that the designation of the highlight shown in FIG. 10 is an example, and the
〔8.変形例〕
上述した実施形態に係る生成装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。例えば、生成装置は、動画情報から自動でハイライト部分を検知してもよい。この点について図11を用いて説明する。
[8. (Modification)
The
〔8−1.ハイライト検知を行う生成装置の構成〕
図11を用いて、変形例に係る生成装置200の構成について説明する。図11は、変形例に係る生成装置の構成例を示す図である。図10に示すように、生成装置200は、通信部110と、記憶部120と、制御部230とを有する。なお、生成装置200は、生成装置200の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。なお、生成装置100と同様の構成については、同一符号を付して同一の処理については説明を省略する。
[8-1. Configuration of generation device that performs highlight detection]
The configuration of the generation device 200 according to the modification will be described with reference to FIG. FIG. 11 is a diagram illustrating a configuration example of a generation apparatus according to a modification. As illustrated in FIG. 10, the generation device 200 includes a
(記憶部120)
記憶部120は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120は、図11に示すように、動画情報記憶部121と、画像情報記憶部122とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 11, the storage unit 120 according to the modification includes a moving image
(制御部230)
制御部230は、例えば、CPUやMPU等によって、生成装置200内部の記憶装置に記憶されている各種プログラム(生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 230)
The
図11に示すように、制御部230は、受付部131と、生成部132と、配信部133と、検知部231とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図11に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図11に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 11, the
(検知部231)
検知部231は、動画情報におけるハイライトを検知する。例えば、検知部231は、動画情報において、所定の閾値以上の音声の変化があった箇所をハイライトとして検知する。検知部231は、動画情報において、所定の閾値以上の画像の変化があった箇所をハイライトとして検知する。なお、検知部231は、シーンに切り替わりを検知する種々の従来技術を適宜用いて、動画情報におけるハイライトを検知してもよい。
(Detector 231)
The
生成部132は、検知部231により検知されたハイライトに基づいて、複数の画像情報を含む要約コンテンツを生成してもよい。例えば、生成部132は、受付部131により動画情報が受け付けられた場合、検知部231にハイライトの検知を行わせ、検知部231により検知されたハイライトに基づいて、複数の画像情報を含む要約コンテンツを生成してもよい。なお、生成部132は、検知部231により検知されたハイライトの範囲を種々の情報に基づいて変更してもよい。例えば、生成部132は、受付部131により受け付けられたユーザによるスクロール操作やスクロール切替え操作等の操作ログに基づいて、検知部231により検知されたハイライトの範囲を修正し、要約コンテンツを生成してもよい。また、生成部132は、ユーザによるスクロール操作やスクロール切替え操作等の操作ログに基づいてハイライトを修正し、要約コンテンツを再生成してもよい。例えば、生成部132は、スクロールの切り替えが行われた直前の画像がハイライトに適した部分であると判定し、検知部231により検知されたハイライトの範囲を修正してもよい。
The generation unit 132 may generate summary content including a plurality of pieces of image information based on the highlight detected by the
また、受付部131は、検知部231により検知されたハイライトに対するユーザの指定を受け付けてもよい。例えば、配信部133は、検知部231により検知されたハイライトに関する情報を端末装置10へ送信する。検知部231により検知されたハイライトに関する情報を受信した端末装置10は、検知部231により検知されたハイライトに関する情報を表示し、検知部231により検知したハイライトに基づいて、ユーザにハイライトに対する指定を行わせる。例えば、端末装置10は、図10に示す例のように、シーンSN12が予めハイライトとして指定された態様で、ユーザにハイライトを指定させる表示を行ってもよい。これにより、ユーザは、ハイライトを指定する操作を簡単に行うことができ、ユーザビリティが向上するため、生成装置200による生成サービスの利用が促進される。また、この場合、生成部132は、受付部131により受け付けられたハイライトに対するユーザの指定に基づいて抽出した複数の画像情報を含む要約コンテンツを生成する。
In addition, the reception unit 131 may receive a user's designation for the highlight detected by the
〔8−2.動画情報が広告である場合について〕
なお、動画情報が所定の目的により生成された動画情報であってもよい。例えば、動画情報は広告として機能する動画情報であってもよい。ここでいう広告とは、広告主により入稿された広告だけに限らず、配信したユーザに所望の情報を伝達したり、ユーザに関心を持たせたり、ユーザを所定の行動へ誘導したり、広告としての機能を有する種々の情報を含むものとする。例えば、生成装置100や生成装置200が広告として機能する動画情報から生成した要約コンテンツは、広告として機能する。この場合、配信システム1においては、端末装置10における動画情報から生成された要約コンテンツへのスクロールに応じて、要約コンテンツの表示態様が変化した回数や広告が表示された時間等に基づいて、広告主に課金してもよい。
[8-2. (When the video information is an advertisement)
Note that the moving image information may be moving image information generated for a predetermined purpose. For example, the moving image information may be moving image information that functions as an advertisement. The advertisement here is not limited to the advertisement submitted by the advertiser, but transmits the desired information to the distributed user, makes the user interested, guides the user to a predetermined action, It shall include various information having a function as an advertisement. For example, summary content generated from moving image information that the
〔9.効果〕
上述してきたように、実施形態に係る生成装置100及び変形例に係る生成装置200は、受付部131と、生成部132とを有する。受付部131は、動画情報における注目箇所(実施形態においては「ハイライト」。以下同じ)の指定を受け付ける。生成部132は、受付部131により受け付けられた注目箇所の指定に基づいて、動画情報から、注目箇所の指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを生成する。
[9. effect〕
As described above, the
これにより、実施形態に係る生成装置100及び変形例に係る生成装置200は、適切に動画の内容をユーザに提供する情報を生成することができる。具体的には、生成装置100、200は、ハイライトの指定がされたシーンの内容を他のシーンの内容よりも多く含む要約コンテンツを生成することにより、適切に動画の内容をユーザに提供する情報を生成することができる。
Thereby, the production |
また、実施形態に係る生成装置100及び変形例に係る生成装置200において、生成部132は、端末装置10において所定の方向にスクロール可能に表示されるコンテンツに含まれる表示領域(実施形態においては「表示領域AR10」。以下同じ)に、所定の方向へのスクロールに応じて、所定の順序で複数の画像情報が連続して表示される要約コンテンツを生成する。
Further, in the
これにより、実施形態に係る生成装置100及び変形例に係る生成装置200は、ユーザ操作に連動して表示態様が変化する要約コンテンツを生成することができ、適切に動画の内容をユーザに提供する情報を生成することができる。
Accordingly, the
また、実施形態に係る生成装置100及び変形例に係る生成装置200において、生成部132は、端末装置10において表示領域が所定の方向の中央に表示される際に、複数の画像情報のうち、注目箇所の指定がされた範囲に対応する画像情報が表示される要約コンテンツを生成する。
In the
これにより、実施形態に係る生成装置100及び変形例に係る生成装置200は、ユーザが視認しやすい位置に要約コンテンツが表示された際に、ハイライト部分の画像情報を表示する要約コンテンツを生成することができ、適切に動画の内容をユーザに提供する情報を生成することができる。
Accordingly, the
また、実施形態に係る生成装置100及び変形例に係る生成装置200において、生成部132は、所定の方向とは逆方向へのスクロールに応じて、所定の順序とは逆の順序で複数の画像情報が連続して表示される要約コンテンツを生成する。
In addition, in the
これにより、実施形態に係る生成装置100及び変形例に係る生成装置200は、ユーザ操作に連動して表示態様が変化する要約コンテンツを生成することができる。生成装置100、200は、ユーザに何度も要約コンテンツに対する操作を行わせることにより、ユーザを要約コンテンツに注目させることができるため、適切に動画の内容をユーザに提供する情報を生成することができる。
Thereby, the
また、変形例に係る生成装置200は、検知部231を有する。検知部231は、動画情報における注目箇所を検知する。
Further, the generation device 200 according to the modification includes a
これにより、変形例に係る生成装置200は、ユーザによりハイライトの指定を行わせることなく、動画情報におけるハイライトの部分を特定できる。そのため、ユーザは簡単な操作により要約コンテンツの生成が可能になるため、ユーザビリティが向上し生成サービスの利用が促進される。 As a result, the generation apparatus 200 according to the modified example can specify a highlight portion in the moving image information without causing the user to designate a highlight. Therefore, since the user can generate summary content by a simple operation, usability is improved and use of the generation service is promoted.
また、変形例に係る生成装置200において、生成部132は、検知部231により検知された注目箇所に基づいて、複数の画像情報を含む要約コンテンツを生成する。
Further, in the generation device 200 according to the modification, the generation unit 132 generates summary content including a plurality of pieces of image information based on the attention location detected by the
これにより、変形例に係る生成装置200は、ユーザによりハイライトの指定を行わせることなく、自動的に検知されたハイライトの部分に基づいて要約コンテンツの生成が可能になる。そのため、ユーザビリティが向上し生成サービスの利用が促進される。 Accordingly, the generation device 200 according to the modification can generate summary content based on the automatically detected highlight portion without causing the user to specify the highlight. Therefore, usability is improved and the use of the generation service is promoted.
また、変形例に係る生成装置200において、検知部231は、動画情報において、所定の閾値以上の音声の変化があった箇所を注目箇所として検知する。
Further, in the generation device 200 according to the modification, the
これにより、変形例に係る生成装置200は、ユーザによりハイライトの指定を行わせることなく、動画情報におけるハイライトの部分を精度よく特定できる。そのため、ユーザは簡単な操作により要約コンテンツの生成が可能になるため、ユーザビリティが向上し生成サービスの利用が促進される。 Thereby, the generation apparatus 200 according to the modification can accurately specify a highlight portion in the moving image information without causing the user to designate a highlight. Therefore, since the user can generate summary content by a simple operation, usability is improved and use of the generation service is promoted.
また、変形例に係る生成装置200において、検知部231は、動画情報において、所定の閾値以上の画像の変化があった箇所を注目箇所として検知する。
Further, in the generation device 200 according to the modification, the
これにより、変形例に係る生成装置200は、ユーザによりハイライトの指定を行わせることなく、動画情報におけるハイライトの部分を精度よく特定できる。そのため、ユーザは簡単な操作により要約コンテンツの生成が可能になるため、ユーザビリティが向上し生成サービスの利用が促進される。 Thereby, the generation apparatus 200 according to the modification can accurately specify a highlight portion in the moving image information without causing the user to designate a highlight. Therefore, since the user can generate summary content by a simple operation, usability is improved and use of the generation service is promoted.
また、変形例に係る生成装置200において、受付部131は、検知部231により検知された注目箇所に対するユーザの指定を受け付ける。また、生成部132は、受付部131により受け付けられた注目箇所に対するユーザの指定に基づいて抽出した複数の画像情報を含む要約コンテンツを生成する。
Further, in the generation device 200 according to the modification, the reception unit 131 receives a user's designation for the point of interest detected by the
これにより、変形例に係る生成装置200は、検知したハイライトの指定をユーザに行わせることにより、動画情報におけるハイライトの部分を特定できる。そのため、ユーザは簡単な操作により要約コンテンツの生成が可能になるため、ユーザビリティが向上し生成サービスの利用が促進される。 Thereby, the generation apparatus 200 according to the modification can specify a highlight portion in the moving image information by causing the user to specify the detected highlight. Therefore, since the user can generate summary content by a simple operation, usability is improved and use of the generation service is promoted.
また、実施形態に係る生成装置100及び変形例に係る生成装置200において、受付部131は、要約コンテンツを他のサービスに投稿する操作を受け付ける。また、生成部132は、要約コンテンツに基づいて、他のサービスに投稿する動画情報を生成する。
Further, in the
これにより、実施形態に係る生成装置100及び変形例に係る生成装置200は、ユーザの操作に応じて、要約コンテンツに基づく動画情報を生成することができる。また、他のサービスで動画情報を表示させることにより、生成サービスの利用が促進される。
Thereby, the generating
また、実施形態及び変形例に係る端末装置10は、表示部154と、受付部151とを有する。表示部154は、動画情報から生成された要約コンテンツであって、注目箇所の指定がされた範囲と、他の範囲とを異なる間隔で抽出した複数の画像情報を含む要約コンテンツを表示する。受付部151は、表示部154により表示された要約コンテンツの表示を変更するユーザ操作を受け付ける。
In addition, the
これにより、実施形態及び変形例に係る端末装置10は、適切に動画の内容をユーザに提供する情報を表示することができる。具体的には、端末装置10は、ハイライトの指定がされたシーンの内容を他のシーンの内容よりも多く含む要約コンテンツを表示することにより、適切に動画の内容をユーザに提供する情報を表示することができる。
Thereby, the
また、実施形態及び変形例に係る端末装置10において、表示部154は、所定の方向にスクロール可能に表示されるコンテンツに含まれる表示領域に、所定の方向へのスクロールに応じて、所定の順序で複数の画像情報が連続して表示される要約コンテンツを表示する。
In the
これにより、実施形態及び変形例に係る端末装置10は、ユーザ操作に連動して表示態様が変化する要約コンテンツを生成することができ、適切に動画の内容をユーザに提供する情報を表示することができる。
Thereby, the
また、実施形態及び変形例に係る端末装置10において、表示部154は、表示領域が画面における所定の方向の中央に表示される際に、複数の画像情報のうち、注目箇所の指定がされた範囲に対応する画像情報が表示される要約コンテンツを表示する。
Further, in the
これにより、実施形態及び変形例に係る端末装置10は、ユーザが視認しやすい位置に要約コンテンツが表示された際に、ハイライト部分の画像情報が表示される要約コンテンツを表示することができ、適切に動画の内容をユーザに提供する情報を表示することができる。
Thereby, the
また、実施形態及び変形例に係る端末装置10において、表示部154は、所定の方向とは逆方向へのスクロールに応じて、所定の順序とは逆の順序で複数の画像情報が連続して表示される要約コンテンツを表示する。
Further, in the
これにより、実施形態及び変形例に係る端末装置10は、ユーザ操作に連動して表示態様が変化する要約コンテンツを表示することができる。これにより、端末装置10は、ユーザに何度も要約コンテンツに対する操作を行わせることにより、ユーザを要約コンテンツに注目させることができるため、適切に動画の内容をユーザに提供する情報を表示することができる。
Thereby, the
〔10.ハードウェア構成〕
上述してきた実施形態に係る生成装置100及び変形例に係る生成装置200は、例えば図12に示すような構成のコンピュータ1000によって実現される。図12は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[10. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る生成装置100及び変形例に係る生成装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130、230の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments and modifications of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various aspects can be made based on the knowledge of those skilled in the art including the aspects described in the disclosure line of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.
〔11.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[11. Others]
In addition, among the processes described in the above-described embodiments and modifications, all or a part of the processes described as being automatically performed can be manually performed, or are described as being performed manually. All or part of the processing can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments and modifications can be combined as appropriate within a range that does not contradict processing contents.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 In addition, the above-mentioned “section (module, unit)” can be read as “means” or “circuit”. For example, the reception unit can be read as reception means or a reception circuit.
1 配信システム
100 生成装置
121 動画情報記憶部
122 画像情報記憶部
130 制御部
131 受付部
132 生成部
133 配信部
10 端末装置
151 受付部
152 送信部
153 受信部
154 表示部
N ネットワーク
DESCRIPTION OF SYMBOLS 1
Claims (4)
前記表示手順により表示された前記表示領域の位置を移動させるユーザ操作を受け付ける受付手順と、
をコンピュータに実行させ、
前記表示手順は、
前記所定の方向へのスクロールに応じて、前記表示領域に表示される画像情報を前記所定の順序に基づいて変更することにより、前記表示領域に、前記所定の順序で前記複数の画像情報を連続して表示する
ことを特徴とする表示プログラム。 A plurality of pieces of image information generated from moving image information, wherein a plurality of pieces of image information obtained by extracting a range in which a point of interest is specified and other ranges at different intervals are displayed so as to be scrollable in a predetermined direction. A display procedure that is displayed in a predetermined order in a display area that is included in the content and that has a size that displays one piece of image information ;
An acceptance procedure for accepting a user operation to move the position of the display area displayed by the display procedure;
To the computer,
The display procedure is as follows:
Depending on the scroll to the predetermined direction continuously, by changing the basis of the image information displayed on the display area in the predetermined order, in the display region, the plurality of image information in said predetermined order Display program characterized by being displayed.
前記表示領域が画面における前記所定の方向の中央に表示される際に、前記複数の画像情報のうち、前記注目箇所の指定がされた範囲に対応する画像情報を表示する
ことを特徴とする請求項1に記載の表示プログラム。 The display procedure is as follows:
When the display area is displayed in the center of the predetermined direction on the screen, image information corresponding to a range in which the point of interest is specified is displayed among the plurality of image information. Item 4. The display program according to item 1.
前記所定の方向とは逆方向へのスクロールに応じて、前記所定の順序とは逆の順序で前記複数の画像情報を連続して表示する
ことを特徴とする請求項1または請求項2に記載の表示プログラム。 The display procedure is as follows:
The plurality of pieces of image information are continuously displayed in an order reverse to the predetermined order in response to scrolling in a direction opposite to the predetermined direction. Display program.
前記表示部により表示された前記表示領域の位置を移動させるユーザ操作を受け付ける受付部と、
を備え、
前記表示部は、
前記所定の方向へのスクロールに応じて、前記表示領域に表示される画像情報を前記所定の順序に基づいて変更することにより、前記表示領域に、前記所定の順序で前記複数の画像情報を連続して表示する
ことを特徴とする端末装置。 A plurality of pieces of image information generated from moving image information, wherein a plurality of pieces of image information obtained by extracting a range in which a point of interest is specified and other ranges at different intervals are displayed so as to be scrollable in a predetermined direction. A display area that is included in the content and that is displayed in order based on a predetermined order in a display area of a size that displays one piece of image information ;
A receiving unit that receives a user operation to move the position of the display area displayed by the display unit;
With
The display unit
Depending on the scroll to the predetermined direction continuously, by changing the basis of the image information displayed on the display area in the predetermined order, in the display region, the plurality of image information in said predetermined order A terminal device characterized by being displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015159835A JP6055522B1 (en) | 2015-08-13 | 2015-08-13 | Display program and terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015159835A JP6055522B1 (en) | 2015-08-13 | 2015-08-13 | Display program and terminal device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016234916A Division JP6224809B2 (en) | 2016-12-02 | 2016-12-02 | Display program, display method, and terminal device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6055522B1 true JP6055522B1 (en) | 2016-12-27 |
JP2017037568A JP2017037568A (en) | 2017-02-16 |
Family
ID=57582292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015159835A Active JP6055522B1 (en) | 2015-08-13 | 2015-08-13 | Display program and terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6055522B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005191770A (en) * | 2003-12-25 | 2005-07-14 | Fujitsu Ltd | Highlight still image generating/distributing system |
JP2011210223A (en) * | 2010-03-09 | 2011-10-20 | Toshiba Corp | Distribution system and device for editing content |
JP2011223287A (en) * | 2010-04-09 | 2011-11-04 | Sony Corp | Information processor, information processing method, and program |
-
2015
- 2015-08-13 JP JP2015159835A patent/JP6055522B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005191770A (en) * | 2003-12-25 | 2005-07-14 | Fujitsu Ltd | Highlight still image generating/distributing system |
JP2011210223A (en) * | 2010-03-09 | 2011-10-20 | Toshiba Corp | Distribution system and device for editing content |
JP2011223287A (en) * | 2010-04-09 | 2011-11-04 | Sony Corp | Information processor, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2017037568A (en) | 2017-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210288932A1 (en) | Shared Content Presentation With Integrated Messaging | |
CN109905740B (en) | Persistent media player | |
US10430051B2 (en) | Multi-user content presentation system | |
US9773024B2 (en) | Method of sharing content and mobile terminal thereof | |
US9275077B2 (en) | Method of capturing content and mobile terminal thereof | |
US9529520B2 (en) | Method of providing information and mobile terminal thereof | |
US9659034B2 (en) | Method of providing capture data and mobile terminal thereof | |
US20110161818A1 (en) | Method and apparatus for video chapter utilization in video player ui | |
US9407971B2 (en) | Presentation of summary content for primary content | |
CN107660334B (en) | Cross-application content player | |
US20180232121A1 (en) | Perpendicular autoplay video feed related navigation | |
US20160179899A1 (en) | Method of providing content and electronic apparatus performing the method | |
US10331327B2 (en) | Message display method, apparatus and terminal | |
KR20190132360A (en) | Method and device for processing multimedia resources | |
RU2705793C1 (en) | Controlling playback of video using touch gestures | |
US9363552B2 (en) | Display apparatus, control method of display apparatus, and computer readable recording medium | |
KR20180002702A (en) | Bookmark management technology for media files | |
JP2015032253A (en) | Information processing device and information processing method | |
EP3882789A1 (en) | Method, device for displaying notification information and storage medium | |
WO2017008646A1 (en) | Method of selecting a plurality targets on touch control terminal and equipment utilizing same | |
JP2010165117A (en) | Content display method using characteristic of retrieval object content | |
JP6224809B2 (en) | Display program, display method, and terminal device | |
JP6055522B1 (en) | Display program and terminal device | |
JP6032356B2 (en) | Control device, information system, display control method, and program | |
US20160328142A1 (en) | User interface for merger and display of multiple content timelines and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6055522 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |