JP6339730B1 - Video content presentation method and program - Google Patents

Video content presentation method and program Download PDF

Info

Publication number
JP6339730B1
JP6339730B1 JP2017163265A JP2017163265A JP6339730B1 JP 6339730 B1 JP6339730 B1 JP 6339730B1 JP 2017163265 A JP2017163265 A JP 2017163265A JP 2017163265 A JP2017163265 A JP 2017163265A JP 6339730 B1 JP6339730 B1 JP 6339730B1
Authority
JP
Japan
Prior art keywords
content
moving image
layer
user
comment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017163265A
Other languages
Japanese (ja)
Other versions
JP2019041319A (en
Inventor
勇児 溝口
勇児 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Finc Technologies Inc
Original Assignee
Finc Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Finc Technologies Inc filed Critical Finc Technologies Inc
Priority to JP2017163265A priority Critical patent/JP6339730B1/en
Application granted granted Critical
Publication of JP6339730B1 publication Critical patent/JP6339730B1/en
Publication of JP2019041319A publication Critical patent/JP2019041319A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】動画コンテンツに対し、そのコメントを視聴ユーザ向けに動的に生成およびカスタマイズして、インタラクティブ性を高めたコンテンツ提示方法を提供すること。【解決手段】一実施形態によれば、第1ユーザによる操作に応じて、第1レイヤ・コンテンツとして動画の再生を開始するステップと、動画の再生中の所定のタイミングで、該タイミングに関連付けられた、第1コメントを有する第2レイヤ・コンテンツを、第1レイヤ・コンテンツの上に所定の期間重畳させて表示するステップであって、第1コメントが第1ユーザに関連付けられる情報に基づいて動的に生成される、ステップとを含む、方法が提供される。【選択図】図6An object of the present invention is to provide a content presentation method with enhanced interactivity by dynamically generating and customizing a comment for a viewing user with respect to moving image content. According to one embodiment, in response to an operation by a first user, a step of starting playback of a moving image as first layer content and a predetermined timing during playback of the moving image are associated with the timing. The second layer content having the first comment is superimposed on the first layer content for a predetermined period of time and is displayed based on information associated with the first user. A method is provided that includes the steps of: [Selection] Figure 6

Description

本開示は、コンピュータによって実装される、動画コンテンツの提示方法およびプログラムに関する。   The present disclosure relates to a moving image content presentation method and program implemented by a computer.

インターネット上で公開された動画に対し、コメントをその動画と時間合わせして再生されるシステムが知られる。例えば、テレビ番組等に関する掲示板において、テレビ番組の1シーンに対する書き込みを、放送開始からの正味時間に対応させて記憶しておくシステムが知られる(例えば、特許文献1)。このようなシステムによれば、ユーザは放送時間のテレビ番組を見ながら、時間合わせされたコメントを同時に閲覧することができる。   There is known a system in which a comment is reproduced in time with a moving image released on the Internet. For example, in a bulletin board related to a television program or the like, there is known a system that stores writing for one scene of a television program in association with the net time from the start of broadcasting (for example, Patent Document 1). According to such a system, the user can view the time-adjusted comments at the same time while watching the TV program during the broadcast time.

特開2002−290949号公報JP 2002-290949 A

このようなシステムは、動画における所定のタイミングにコメントの表示を時間的に合わせるに過ぎない。特定のユーザにとって、動画の所定のタイミングにコメントを時間的に合わせるだけでは、インタラクティブ性に欠け、ユーザの関心をひくものとはならないこともある。   Such a system only matches the display of comments in time with a predetermined timing in a moving image. For a specific user, simply matching a comment to a predetermined timing of a moving image may not be interactive and may not be of interest to the user.

本開示は、上記課題の少なくとも一部を解決するために、動画コンテンツに対し、そのコメントを視聴ユーザ向けに動的に生成およびカスタマイズして、インタラクティブ性を高めた動画コンテンツの提示方法およびそのプログラムを提供することを目的とする。特に、動画コンテンツの配信において、視聴ユーザの基本属性および嗜好、並びに他の視聴ユーザによる視聴状況に従い、状況を適切に反映したコメントを供給可能とする方法およびプログラムを提供することを目的とする。   In order to solve at least a part of the above problems, the present disclosure provides a method and program for presenting video content with enhanced interactivity by dynamically generating and customizing a comment for a video user for a viewing user The purpose is to provide. In particular, an object of the present invention is to provide a method and a program that can supply comments that appropriately reflect the situation according to the basic attributes and preferences of the viewing user and the viewing status of other viewing users in the distribution of moving image content.

本開示の一実施形態によれば、コンピュータによって実装される、動画コンテンツの提示方法が提供される。かかる方法は、第1ユーザによる操作に応じて、第1レイヤ・コンテンツとして動画の再生を開始するステップと、動画の再生における所定のタイミングで、該タイミングに関連付けられた、第1コメントを有する第2レイヤ・コンテンツを、第1レイヤ・コンテンツの上に所定の期間重畳させて表示するステップであって、第1コメントが第1ユーザに関連付けられる情報に基づいて動的に生成される、ステップとを含む。   According to an embodiment of the present disclosure, a method for presenting moving image content implemented by a computer is provided. In this method, in response to an operation by the first user, a step of starting the reproduction of the moving image as the first layer content, and a first comment associated with the timing at a predetermined timing in the reproduction of the moving image. Displaying the two-layer content superimposed on the first layer content for a predetermined period, wherein the first comment is dynamically generated based on information associated with the first user; and including.

情報処理システムの基本構成図である。1 is a basic configuration diagram of an information processing system. サーバの例示のハードウェア構成図である。It is an example hardware block diagram of a server. ユーザ端末の例示のハードウェア構成図である。It is an example hardware block diagram of a user terminal. サーバおよびユーザ端末の例示の機能ブロック図である。It is an example functional block diagram of a server and a user terminal. 動画コンテンツを登録する方法の例示の処理フロー図である。FIG. 6 is an exemplary process flow diagram of a method for registering moving image content. 動画コンテンツの例示の概念図である。It is an example conceptual diagram of animation content. 一実施形態による動画コンテンツの提示方法の処理フロー図である。It is a processing flowchart of the presentation method of the moving image content by one Embodiment. 図7に関連する例示の概念図である。FIG. 8 is an exemplary conceptual diagram related to FIG. 7. 図7に関連する例示の画面イメージの遷移図である。FIG. 8 is a transition diagram of an exemplary screen image related to FIG. 7.

最初に、本開示の例示的な実施形態の構成を列記して説明する。本開示の実施形態による、動画コンテンツの提示方法およびプログラムは、以下のような構成を備えてもよい。   First, configurations of exemplary embodiments of the present disclosure will be listed and described. A moving image content presentation method and program according to an embodiment of the present disclosure may include the following configurations.

〔形態1〕形態1によれば、コンピュータによって実装される、動画コンテンツの提示方法が提供される。かかる方法は、第1ユーザによる操作に応じて、第1レイヤ・コンテンツとして動画の再生を開始するステップと、動画の再生における所定のタイミングで、該タイミングに関連付けられた、第1コメントを有する第2レイヤ・コンテンツを、第1レイヤ・コンテンツの上に所定の期間重畳させて表示するステップであって、第1コメントが第1ユーザに関連付けられる情報に基づいて動的に生成される、ステップとを含む。   [Embodiment 1] According to Embodiment 1, there is provided a method for presenting moving image content implemented by a computer. In this method, in response to an operation by the first user, a step of starting the reproduction of the moving image as the first layer content, and a first comment associated with the timing at a predetermined timing in the reproduction of the moving image. Displaying the two-layer content superimposed on the first layer content for a predetermined period, wherein the first comment is dynamically generated based on information associated with the first user; and including.

〔形態2〕形態2によれば、形態1の方法において、第1コメントは、第1ユーザによって動画に対して登録された試行回数に基づいて生成される。   [Mode 2] According to mode 2, in the method of mode 1, the first comment is generated based on the number of trials registered for the moving image by the first user.

〔形態3〕形態3によれば、形態1または2の方法であって、更に、所定のタイミングで、該タイミングに関連付けられた、所定の第2コメントを有する第3レイヤ・コンテンツを、第1レイヤ・コンテンツの上に重畳させて表示するステップを含む。   [Mode 3] According to the mode 3, the method of the mode 1 or 2, further, at a predetermined timing, the third layer content having a predetermined second comment associated with the timing is added to the first layer content. And displaying the image superimposed on the layer content.

〔形態4〕形態4によれば、形態3の方法において、第3レイヤ・コンテンツが、キャラクタ・アイコン画像を含み、第3レイヤ・コンテンツが、動画に関連付けられた第2ユーザに関連付けられる。   [Mode 4] According to mode 4, in the method of mode 3, the third layer content includes a character icon image, and the third layer content is associated with the second user associated with the moving image.

〔形態5〕形態5によれば、形態3または4の方法であって、更に、第3レイヤ・コンテンツが重畳されると、動画の再生を中断するステップを含み、第3レイヤ・コンテンツに更に含まれるボタン・アイコンに対する命令に応じて、中断された動画の再生が再開される。   [Embodiment 5] According to Embodiment 5, the method according to Embodiment 3 or 4, further comprising the step of interrupting the reproduction of the moving image when the third layer content is superimposed, and further adding to the third layer content. In response to the command for the included button / icon, the reproduction of the interrupted moving image is resumed.

〔形態6〕形態6によれば、形態1から5の何れかの方法をコンピュータに実行させるプログラムが提供される。   [Mode 6] According to mode 6, there is provided a program for causing a computer to execute any one of methods 1 to 5.

以下に、本開示に係る動画コンテンツの提示方法およびプログラムの実施形態を添付図面とともに説明する。添付図面において、同一または類似の要素には同一または類似の参照符号が付され、各実施形態の説明において同一または類似の要素に関する重複する説明は省略することがある。また、各実施形態で示される特徴は、互いに矛盾しない限り他の実施形態にも適用可能である。   Embodiments of a moving image content presentation method and program according to the present disclosure will be described below with reference to the accompanying drawings. In the accompanying drawings, the same or similar elements are denoted by the same or similar reference numerals, and redundant description of the same or similar elements may be omitted in the description of each embodiment. Further, the features shown in each embodiment can be applied to other embodiments as long as they do not contradict each other.

図1は、情報処理システム1000の全体概要図である。情報処理システム1000は、サーバ100と、複数のユーザ端末200,300と、を備える。サーバ100は、ネットワーク400を介してユーザ端末200,300に接続される。説明を簡単にするために、図1ではユーザ端末を2台だけ示しているが、これに限定されず、ユーザ数に応じて3台以上としてもよい。また、ユーザ端末200,300の具体的な機器は、図示したパーソナルコンピュータおよびスマートフォンに限定されず、これ以外にも、例えば、フィーチャーフォン、PDA(Personal Digital Assistant)、またはタブレット端末等の電子機器としてもよい。   FIG. 1 is an overall schematic diagram of the information processing system 1000. The information processing system 1000 includes a server 100 and a plurality of user terminals 200 and 300. Server 100 is connected to user terminals 200 and 300 via network 400. In order to simplify the explanation, only two user terminals are shown in FIG. 1, but the present invention is not limited to this, and three or more user terminals may be used according to the number of users. In addition, the specific devices of the user terminals 200 and 300 are not limited to the illustrated personal computer and smartphone, but may be other electronic devices such as a feature phone, a PDA (Personal Digital Assistant), or a tablet terminal. Also good.

以下では、これに限定されないが、ユーザ端末200は、主に、サービス提供側の指導者ユーザ(以下、「指導者」ということもある。)が用いる端末を、また、ユーザ端末300は、主に、サービス利用側のユーザ(以下、「一般ユーザ」または「視聴ユーザ」ということもある。)が用いる端末を想定する。例えば、指導者は主に、自身で指導用の動画を作成して動画コンテンツをサーバ100にアップロードするためにユーザ端末200を使用する。また、一般ユーザは主に、動画コンテンツを視聴するためにユーザ端末300を使用する。   In the following, although not limited to this, the user terminal 200 is mainly a terminal used by an instructor user on the service providing side (hereinafter also referred to as “instructor”), and the user terminal 300 is Further, a terminal used by a service user (hereinafter sometimes referred to as “general user” or “viewing user”) is assumed. For example, an instructor mainly uses the user terminal 200 to create an instructional video by himself and upload the video content to the server 100. Moreover, a general user mainly uses the user terminal 300 to view moving image content.

ユーザ端末200,300には、インスタント・メッセージング(IM)サービス用のアプリケーションがインストールされ、指導者および一般ユーザによって利用されてもよい。当該IMアプリケーションでは、一般ユーザと指導者との間でアカウントを連携、リンクさせる(「友達」になる)ことにより、専用の仮想空間(「トークルーム」)を介して、メッセージングをすることができる。他にも、SNS(Social Networking Service)またはブログ(Blog)等、複数のユーザのアカウント間を連携させて、アカウント間でメッセージング(即ち、メッセージ・データの送受信)を行うことができる任意のアプリケーションやWebサービスが利用可能である。   An application for an instant messaging (IM) service is installed in the user terminals 200 and 300, and may be used by instructors and general users. In the IM application, it is possible to perform messaging through a dedicated virtual space (“talk room”) by linking and linking accounts (to become “friends”) between general users and instructors. . In addition, an arbitrary application such as SNS (Social Networking Service) or blog (Blog) that can perform messaging (that is, transmission and reception of message data) between accounts by linking accounts of a plurality of users. Web service is available.

図2および図3を参照して、サーバ100およびユーザ端末200,300のハードウェア構成の概要について説明する。図2に示されるサーバ100は、アプリケーションを通じてサービスを提供するための情報処理装置であり、例えばワークステーションやパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウド・コンピューティングによって論理的に実現されてもよい。サーバ100は、プロセッサ10、メモリ11、ストレージ12、通信インタフェース(IF)13、および入出力部14等を備え、これらはバス15を通じて相互に電気的に接続される。   With reference to FIG. 2 and FIG. 3, the outline | summary of the hardware constitutions of the server 100 and the user terminals 200 and 300 is demonstrated. A server 100 shown in FIG. 2 is an information processing apparatus for providing a service through an application, and may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing. May be. The server 100 includes a processor 10, a memory 11, a storage 12, a communication interface (IF) 13, an input / output unit 14, and the like, which are electrically connected to each other through a bus 15.

プロセッサ10は、サーバ100全体の動作を制御し、各要素間におけるデータの送受信の制御、およびアプリケーションの実行に必要な情報処理等を行う演算装置である。例えばプロセッサ10はCPU(Central Processing Unit)であり、ストレージ12に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。   The processor 10 is an arithmetic device that controls the operation of the entire server 100, performs control of data transmission / reception between each element, and performs information processing necessary for executing an application. For example, the processor 10 is a CPU (Central Processing Unit), and executes information processing by executing a program or the like stored in the storage 12 and expanded in the memory 11.

メモリ11は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ11は、プロセッサ10のワークエリア等として使用され、また、サーバ100の起動時に実行されるBIOS(Basic Input / Output System)、および各種設定情報等を格納する。ストレージ12は、アプリケーション・プログラム、およびユーザの認証プログラム等の各種プログラムを格納する。アプリケーションの各処理に用いられるデータを格納したデータベースがストレージ12に構築されてもよい。   The memory 11 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary memory composed of a nonvolatile storage device such as a flash memory or an HDD (Hard Disc Drive). . The memory 11 is used as a work area of the processor 10 and stores a BIOS (Basic Input / Output System) executed when the server 100 is started up, various setting information, and the like. The storage 12 stores various programs such as an application program and a user authentication program. A database that stores data used for each process of the application may be constructed in the storage 12.

通信インタフェース13は、サーバ100をネットワーク400に接続し、ユーザ端末200,300との間で通信を行う。入出力部14は、マウスやキーボード等の情報入力機器、およびディスプレイ等の出力機器である。バス15は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号および各種制御信号を伝達する。   The communication interface 13 connects the server 100 to the network 400 and communicates with the user terminals 200 and 300. The input / output unit 14 is an information input device such as a mouse or a keyboard, and an output device such as a display. The bus 15 is connected in common to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.

図3に示されるユーザ端末200(300)の例は、主に、タッチパネルを有するスマートフォン(300)を想定している。ユーザ端末200(300)は、プロセッサ20、メモリ21、ストレージ22、通信インタフェース23、撮像部24、タッチパネル25、および検知部26等を備え、バス29を介して相互に電気的に接続される。   The example of the user terminal 200 (300) illustrated in FIG. 3 mainly assumes a smartphone (300) having a touch panel. The user terminal 200 (300) includes a processor 20, a memory 21, a storage 22, a communication interface 23, an imaging unit 24, a touch panel 25, a detection unit 26, and the like, and is electrically connected to each other via a bus 29.

プロセッサ20は、ユーザ端末200(300)の動作を制御し、各要素間におけるデータの送受信の制御、およびプリケーションの実行に必要な処理等を行う演算装置である。例えばプロセッサ20はCPUおよび/またはGPU(Graphical Processing Unit)等であり、ストレージ22に格納され、メモリ21に展開されたプログラム等を実行することによって必要な各情報処理を実施する。   The processor 20 is an arithmetic device that controls the operation of the user terminal 200 (300), performs data transmission / reception control between elements, processing necessary for execution of an application, and the like. For example, the processor 20 is a CPU and / or a GPU (Graphical Processing Unit) or the like, and executes necessary information processing by executing a program or the like stored in the storage 22 and expanded in the memory 21.

メモリ21は、RAMなどの揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ21はプロセッサ20のワークエリア等として使用され、また、ユーザ端末200(300)の起動時に実行されるBIOS、および各種設定情報等が格納される。ストレージ22には、アプリケーション・プログラム等が格納される。アプリケーション・プログラムは通信インタフェース23を通じてダウンロードすることによりストレージ22に格納される。   The memory 21 includes a main memory configured by a volatile storage device such as a RAM and an auxiliary storage configured by a nonvolatile storage device such as a flash memory or an HDD. The memory 21 is used as a work area of the processor 20, and stores a BIOS executed when the user terminal 200 (300) is activated, various setting information, and the like. The storage 22 stores application programs and the like. The application program is stored in the storage 22 by being downloaded through the communication interface 23.

通信インタフェース23は、ユーザ端末200(300)をネットワーク400に接続し、サーバ100と通信を行う。また、通信インタフェース23は、Bluetooth(登録商標)およびBLE(Bluetooth Low Energy)の近距離通信インタフェースを含んでもよい。撮像部24は、静止画および動画の撮像機能を有し、ユーザによって撮像された画像をストレージ22に格納する。特に、撮像部24を用いて、指導者は指導用の動画を撮像することができる。   The communication interface 23 connects the user terminal 200 (300) to the network 400 and communicates with the server 100. The communication interface 23 may include a Bluetooth (registered trademark) and a BLE (Bluetooth Low Energy) near field communication interface. The imaging unit 24 has a still image and moving image imaging function, and stores an image captured by the user in the storage 22. In particular, using the imaging unit 24, the instructor can capture a video for guidance.

タッチパネル25は、入力部251および表示部252を構成する。タッチパネルの入力部251は、ユーザによるタッチパネル25への操作があったことを検知する。入力部251は、圧力検出方式、抵抗膜方式、静電容量方式、または電磁誘導方式等を採用することができる。そして、タッチパネル上の任意の位置で操作(タッチパネルに対する、タッチ操作、スライド動作、スワイプ操作、及びタップ操作等の物理的接触操作)による入力を受けると、その位置における押圧、電気抵抗、電気容量、または弾性波のエネルギー等の変化量が検知され、対応する接触位置座標が特定される。タッチパネルの表示部252は通常、液晶ディスプレイ等で構成される。   The touch panel 25 constitutes an input unit 251 and a display unit 252. The input unit 251 of the touch panel detects that the user has operated the touch panel 25. The input unit 251 can employ a pressure detection method, a resistance film method, a capacitance method, an electromagnetic induction method, or the like. When an input by an operation (physical contact operation such as a touch operation, a slide operation, a swipe operation, and a tap operation on the touch panel) is received at an arbitrary position on the touch panel, the pressure, electric resistance, electric capacity, Alternatively, a change amount such as energy of elastic waves is detected, and the corresponding contact position coordinates are specified. The display unit 252 of the touch panel is usually configured with a liquid crystal display or the like.

検知部26は、内蔵型センサとして、これに限定されないが、加速度センサ、振動センサ、ジャイロセンサ、地磁気センサ、近接センサ、照度センサ、圧力センサ、およびGPS等を含む。検知部26は、一例として、ユーザの歩数、移動距離および行動範囲等を含む活動情報やライフログ情報を測定および取得する活動量計として機能する。また、活動情報は、外部のウェアラブル・デバイス(非図示)と連携して、通信インタフェース23を通じて受け取ってもよい。外部のウェアラブル・デバイスを使用することにより、ECG(electrocardiogram)センサや筋電センサのようなより詳細な生体情報を取得可能である。これ以外にも気象センサ等からの各種データも取得可能としてもよい。バス29は、上記の各要素に共通に接続され、例えば、アドレス信号、データ信号、および各種制御信号を伝達する。   The detection unit 26 includes, but is not limited to, an acceleration sensor, a vibration sensor, a gyro sensor, a geomagnetic sensor, a proximity sensor, an illuminance sensor, a pressure sensor, and a GPS as a built-in sensor. As an example, the detection unit 26 functions as an activity meter that measures and acquires activity information and life log information including the number of steps of a user, a moving distance, an action range, and the like. The activity information may be received through the communication interface 23 in cooperation with an external wearable device (not shown). By using an external wearable device, more detailed biological information such as an ECG (electrocardiogram) sensor or myoelectric sensor can be acquired. In addition to this, various data from a weather sensor or the like may be acquired. The bus 29 is commonly connected to the above-described elements, and transmits, for example, an address signal, a data signal, and various control signals.

これより図4を参照して情報処理システム1000の機能構成について説明する。図4は、サーバ100、およびユーザ端末200(300)にそれぞれ実装される機能を中心に示した例示のブロック図である。サーバ100は、通信部110と、アプリケーション部170と、記憶部190とを含み、相互に作用する。アプリケーション部170は、更に、一般ユーザに対して初期サーベイを実施する初期サーベイ部171と、登録される動画についてハッシュタグとも称されるタグを設定するタグ設定部173と、ユーザ端末300に動画コンテンツを配信する動画配信部175とを含む。記憶部190は、更に、一般ユーザ関連情報192と、動画コンテンツ情報194と、アプリケーション関連情報196とを含む。   The functional configuration of the information processing system 1000 will be described with reference to FIG. FIG. 4 is an exemplary block diagram mainly showing functions implemented in the server 100 and the user terminal 200 (300). The server 100 includes a communication unit 110, an application unit 170, and a storage unit 190, which interact with each other. The application unit 170 further includes an initial survey unit 171 that performs an initial survey for general users, a tag setting unit 173 that sets a tag that is also referred to as a hash tag for a registered video, and video content in the user terminal 300 And a moving image distribution unit 175 for distributing. The storage unit 190 further includes general user related information 192, moving image content information 194, and application related information 196.

記憶部190において、各種情報を例えばテーブル形式でデータベースにてレコード管理するのがよい。また、記憶部190は、これらの情報以外にも、各種データ・ファイルと、IMアプリケーションや動画再生用アプリケーションを実装したプログラムと、一実施形態による動画コンテンツの提示方法を実装したプログラムとを含むコンピュータ・プログラムとを含むことができる。   In the storage unit 190, records of various types of information may be managed in a database in a table format, for example. In addition to these pieces of information, the storage unit 190 includes various data files, a program that implements an IM application or a video playback application, and a program that implements a video content presentation method according to an embodiment.・ Programs can be included.

ユーザ関連情報192は、一例として、一般ユーザ情報や指導者情報を含む。一般ユーザ情報は、一般ユーザ全般に関する情報である。一例として、アカウント情報と、一般ユーザの基本登録情報(性別、年齢、住所、連絡先等)と、一般ユーザのアイコン画像とを含む。また、アプリケーション部170の初期サーベイ部171によって、ユーザ端末300の入力部240との相互作用を通じてユーザ端末300から取得した初期サーベイ情報(一般ユーザの生活情報、嗜好情報、および健康情報等)を含んでもよい。更に、ユーザ端末300の検知部26で取得した各種行動情報やライフログ情報を含んでもよい。加えて、その一般ユーザが視聴した動画コンテンツの視聴履歴情報(視聴動画コンテンツ、視聴日時、視聴回数、試行回数等)を含んでもよい。一方、指導者情報は、指導者全般に関する情報である。一例として、アカウント情報と、指導者の基本登録情報(性別、年齢、住所、連絡先等)と、指導者のアイコン画像とを含む。   The user related information 192 includes general user information and instructor information as an example. General user information is information regarding general users in general. As an example, account information, general user basic registration information (gender, age, address, contact information, etc.), and general user icon images are included. In addition, initial survey information (such as general user life information, preference information, and health information) acquired from the user terminal 300 through the interaction with the input unit 240 of the user terminal 300 by the initial survey unit 171 of the application unit 170 is included. But you can. Furthermore, various action information and life log information acquired by the detection unit 26 of the user terminal 300 may be included. In addition, viewing history information (viewing moving image content, viewing date and time, viewing count, number of trials, etc.) of the moving image content viewed by the general user may be included. On the other hand, the leader information is information relating to leaders in general. As an example, it includes account information, basic registration information (gender, age, address, contact information, etc.) of the leader, and an icon image of the leader.

動画コンテンツ情報194は、動画コンテンツ全般に関する情報である。一例として、動画ファイル情報と、動画ファイルの再生時にユーザ端末の出力部250に表示されるコメント情報と、コメントの表示に関するルールおよびパターン等の設定情報と、動画ファイルに関連付けられるタグ情報とを含む。なお、設定情報はコメント・テーブルとしてテーブル形式でレコード管理してもよい(後述)。動画コンテンツ情報194は主に、指導者のユーザ端末200によって登録される。或いは、例えばタグ情報のように、動画コンテンツを視聴した一般ユーザのユーザ端末300によって、フィードバックとして登録されてもよい。更に、動画コンテンツ情報194は、一般ユーザによって視聴された特定の動画コンテンツの視聴履歴情報(視聴動画コンテンツ、視聴日時、視聴回数、試行回数等)を含んでもよい。   The moving image content information 194 is information related to the entire moving image content. As an example, it includes moving image file information, comment information displayed on the output unit 250 of the user terminal when the moving image file is played back, setting information such as rules and patterns relating to the display of comments, and tag information associated with the moving image file. . The setting information may be managed as a comment table in a table format (described later). The moving image content information 194 is registered mainly by the user terminal 200 of the instructor. Alternatively, for example, tag information may be registered as feedback by the user terminal 300 of a general user who has viewed the moving image content. Furthermore, the moving image content information 194 may include viewing history information (viewed moving image content, viewing date / time, number of viewing times, number of trials, etc.) of specific moving image content viewed by a general user.

アプリケーション関連情報196は、アプリケーション全般に関する情報である。一例として、IMアプリケーションを通じて一般ユーザと指導者を関連付けるためのアカウント関連付け情報と、IMアプリケーションにおいて提供されるトークルーム情報およびトークルーム内のメッセージング履歴とを含む。また、動画コンテンツの登録および配信に関する動画アプリケーションに関する情報も含む。なお、IMアプリケーションは動画アプリケーションと連携可能であり、例えば、IMアプリケーション起動中に動画アプリケーションと連携して動画コンテンツを再生可能としてもよい。   The application related information 196 is information related to the entire application. An example includes account association information for associating a general user and a leader through an IM application, and talk room information provided in the IM application and a messaging history in the talk room. It also includes information related to video applications related to registration and distribution of video content. Note that the IM application can be linked with the moving image application. For example, the moving image content may be played back in cooperation with the moving image application while the IM application is activated.

一方、ユーザ端末200(300)は、通信部210と、記憶部220と、入力部240と、出力部250と、アプリケーション部270とを含み、相互に作用する。入力部240は、一例では、一般ユーザがサーバ100の初期サーベイ部と相互作用して、ユーザ関連情報192を入力する。また、指導者が動画コンテンツ情報194に含まれるコメント情報を入力する。出力部250は、一例では、サーバ100の動画配信部175から配信された動画コンテンツを表示する。アプリケーション部270は、動画コンテンツ用のアプリケーションを含む。具体的には、撮像部24で自ら生成した動画コンテンツを動画コンテンツ情報196としてサーバ100に登録する動画登録部271と、サーバ100に登録された動画コンテンツを再生するための動画再生部273とを含む。また、アプリケーション部270は、IMサービスを通じてユーザのアカウント間でメッセージングを行うIMアプリケーションを含む。これにより、複数のユーザ端末200(300)間で、各通信部210がネットワーク400を介してサーバ100の通信部110およびアプリケーション部170と連携し、メッセージングに係るデータの送受信を行う。   On the other hand, the user terminal 200 (300) includes a communication unit 210, a storage unit 220, an input unit 240, an output unit 250, and an application unit 270, and interacts with each other. In the input unit 240, for example, a general user interacts with the initial survey unit of the server 100 to input the user related information 192. The instructor inputs comment information included in the moving image content information 194. For example, the output unit 250 displays the moving image content distributed from the moving image distribution unit 175 of the server 100. The application unit 270 includes an application for moving image content. Specifically, a moving image registration unit 271 that registers the moving image content generated by the imaging unit 24 as moving image content information 196 in the server 100 and a moving image reproduction unit 273 for reproducing the moving image content registered in the server 100 are provided. Including. The application unit 270 includes an IM application that performs messaging between user accounts through the IM service. As a result, between the plurality of user terminals 200 (300), each communication unit 210 cooperates with the communication unit 110 and the application unit 170 of the server 100 via the network 400 to transmit and receive data related to messaging.

図2および図3に示した上記のサーバ100およびユーザ端末200(300)の各ハードウェア構成における各要素、並びに図4に示した各機能ブロックは一例に過ぎず、これらに限定されない。特に、図4に示した各機能ブロックは、ハードウェアの一部として実装されても、および/またはソフトウェアの一部として実装されてもよい。また、図4に示したサーバ100の各機能ブロックの少なくとも一部は、ユーザ端末200(300)が有するように構成してもよい。ユーザ端末200(300)の各機能ブロックの少なくとも一部も、サーバ100が有するように構成してもよい。つまり、一実施形態によるコンテンツ提示方法およびプログラムは、サーバ100およびユーザ端末200(300)から任意に選択される情報処理装置が実行できるものである。加えて、上述した例示の各種情報やコンピュータ・プログラムは、図示されるテーブル構成、データ種別、データ項目、および格納場所に限定されないことが認められる。つまり、記憶部190に格納されるのに加えて、或いは記憶部190に格納されるのに代えて、ユーザ端末の記憶部220に格納されてもよい。   The elements in the hardware configurations of the server 100 and the user terminal 200 (300) shown in FIGS. 2 and 3 and the functional blocks shown in FIG. 4 are merely examples, and the present invention is not limited to these. In particular, each functional block shown in FIG. 4 may be implemented as part of hardware and / or as part of software. Moreover, you may comprise so that the user terminal 200 (300) may have at least one part of each functional block of the server 100 shown in FIG. You may comprise so that the server 100 may also have at least one part of each functional block of the user terminal 200 (300). That is, the content presentation method and program according to the embodiment can be executed by an information processing apparatus arbitrarily selected from the server 100 and the user terminal 200 (300). In addition, it is recognized that the various types of information and computer programs described above are not limited to the illustrated table configuration, data types, data items, and storage locations. That is, in addition to being stored in the storage unit 190, or instead of being stored in the storage unit 190, it may be stored in the storage unit 220 of the user terminal.

図5および図6を参照して、一実施形態による動画コンテンツの提示方法に関連し、指導者のユーザ端末200を用いた動画コンテンツの登録処理について説明する。図5は、ユーザ端末200の動画登録部271によって動画コンテンツを登録する処理フロー図を示す。図6は、登録された動画コンテンツについて、その再生時に、ユーザ端末300の出力部250に表示され、一般ユーザに閲覧される画面イメージの例をその概念と共に示す。   With reference to FIG. 5 and FIG. 6, a description will be given of a moving image content registration process using the instructor's user terminal 200 in relation to the moving image content presentation method according to the embodiment. FIG. 5 shows a processing flowchart for registering moving image content by the moving image registration unit 271 of the user terminal 200. FIG. 6 shows an example of a screen image that is displayed on the output unit 250 of the user terminal 300 and viewed by a general user during reproduction of the registered moving image content, along with its concept.

動画コンテンツの登録処理は、指導者のユーザ端末300による動画ファイルのアップロードによってトリガされ、サーバ100と相互作用することで実施される。即ち、動画登録部271は、作成した動画ファイルをサーバ100の記憶部190に動画コンテンツ情報194の一部としてアップロードする。そして、その動画コンテンツ情報194を動画レイヤL1に関連付けることにより、動画レイヤ・コンテンツを生成する(S11)。画面イメージD1の例では、指導者により、「腹式呼吸」に関するガイダンス動画ファイルをサーバ100にアップロードされている。動画レイヤ(L1)コンテンツには、動画再生時の指導者画像TRが含まれている。動画コンテンツ情報194には、指導者によって併せて登録されるタグ情報が動画ファイルに関連付けて含まれてもよい。   The registration process of the moving image content is triggered by the uploading of the moving image file by the instructor's user terminal 300 and is performed by interacting with the server 100. That is, the moving image registration unit 271 uploads the created moving image file to the storage unit 190 of the server 100 as part of the moving image content information 194. Then, the moving image layer information is generated by associating the moving image content information 194 with the moving image layer L1 (S11). In the example of the screen image D1, a guidance video file related to “abdominal breathing” is uploaded to the server 100 by the instructor. The moving image layer (L1) content includes a leader image TR at the time of moving image reproduction. The moving image content information 194 may include tag information registered together by the instructor in association with the moving image file.

次いで、動画登録部271は、動画の所定のタイミングにおける表示画像の解説情報を解説コメントとして登録し、解説レイヤ(L2)に関連付ける。これにより、解説レイヤ(L2)コンテンツを生成する(S13)。画面イメージD1の例では、テキスト「1.リラックスした状態でまっすぐ立ちます」が解説コメントC11に相当し、解説レイヤ(L2)コンテンツに含まれる。   Next, the moving image registration unit 271 registers the commentary information of the display image at a predetermined timing of the moving image as a comment and associates it with the comment layer (L2). Thereby, explanation layer (L2) content is generated (S13). In the example of the screen image D1, the text “1. Stand straight in a relaxed state” corresponds to the comment comment C11 and is included in the comment layer (L2) content.

更に、動画登録部271は、動画の所定のタイミングにおける表示画像に関し、アイコン画像から一般ユーザに供給するための情報をアイコン・コメントとして登録し、アイコン・レイヤ(L3)に関連付ける。これにより、アイコン・レイヤ(L3)コンテンツを生成する(S15)。その際、アイコン・コメンに関するパターンおよび該パターンの選択ルールと共にコメント・テーブルにレコード登録するのがよい(後述)。画面イメージD1の例では、テキスト「太郎さん、3回目の腹式呼吸ですね!1日10回を目標に頑張って下さいね!」がアイコン・コメントC12に相当し、アイコン・レイヤ(L3)コンテンツに含まれる。また、一例では、キャラクタ・アイコン画像CH、「OK」ボタンOB、および試行ボタンTBもアイコン・レイヤ(L3)コンテンツに含まれてもよい。キャラクタ・アイコン画像CHは、動画に関連付けられた画像、例えば動画ファイルを登録した指導者のアイコン画像としてもよく、これにより、一般ユーザと指導者のインタラクティブ性を向上させることができる。   Further, the moving image registration unit 271 registers information to be supplied to the general user from the icon image as an icon / comment regarding the display image at a predetermined timing of the moving image, and associates the information with the icon layer (L3). Thereby, icon layer (L3) content is generated (S15). At that time, it is preferable to record a record in the comment table together with a pattern relating to icon / comment and a selection rule of the pattern (described later). In the example of screen image D1, the text “Taro-san, 3rd stomach breathing! Please do your best for 10 times a day!” Corresponds to icon comment C12, and icon layer (L3) content include. In one example, the character icon image CH, the “OK” button OB, and the trial button TB may also be included in the icon layer (L3) content. The character icon image CH may be an image associated with a moving image, for example, an icon image of a leader who has registered a moving image file, thereby improving the interactivity of the general user and the leader.

動画コンテンツの再生時、上記の所定のタイミングにおいて、ユーザ端末300の出力部250に表示される画面イメージD1は、図6に示すようになる。ここでは、最下層の動画レイヤL1と、動画レイヤL1の上の解説レイヤL2と、解説レイヤL2の上のアイコン・レイヤL3とを重畳させることにより生成される。つまり、各レイヤL1,L2,L3の各コンテンツを重畳させることにより、配信されることになる動画コンテンツが生成される。その際、解説レイヤL2およびアイコン・レイヤL3の各コンテンツは所定の透過率で透過処理されるのがよい。透過率は任意の方法で決定することができる。このように、コンテンツをマルチ・レイヤ化することにより、動画作成に関する専門知識を有しないユーザであっても、動的に生成されるコメントを付加可能な動画コンテンツを手軽に生成することができるようになる。   When the moving image content is reproduced, the screen image D1 displayed on the output unit 250 of the user terminal 300 at the predetermined timing is as shown in FIG. Here, it is generated by superimposing the lowermost moving image layer L1, the explanation layer L2 above the animation layer L1, and the icon layer L3 above the explanation layer L2. That is, the moving image content to be distributed is generated by superimposing the contents of the layers L1, L2, and L3. At that time, the contents of the explanation layer L2 and the icon layer L3 are preferably transparently processed with a predetermined transparency. The transmittance can be determined by any method. In this way, by making content multi-layered, it is possible to easily generate video content to which dynamically generated comments can be added even for users who do not have expertise in video creation. become.

アイコン・レイヤ(L3)が動画レイヤ(L1)に重畳されたときは、動画レイヤ(L1)コンテンツである動画ファイルの再生を中断するようにしてもよい。この場合、一般ユーザが、タッチ操作により「OK」ボタンOBを押下した場合に、それを動画ファイルの再開命令に変換し、当該再開命令に応じて中断された動画ファイルの再生を再開してもよい。また、試行ボタンTBの横には、特定の一般ユーザが動画コンテンツの内容を試行した回数、即ち、動画に対して登録された試行回数が表示される(画面イメージD1の例では「2回」既に登録している。)。一般ユーザが試行ボタンTBをタッチ操作により押下する毎に、この試行回数が明示的にインクリメントされる。つまり、一般ユーザは、その動画コンテンツを閲覧した際に、それにしたがい自身で試行した総回数を登録しておくことができる。D1の試行回数「2」の値は、例えばコメントC12に含まれる「3回目」の値を動的に計算するときに用いることができる。   When the icon layer (L3) is superimposed on the moving image layer (L1), the reproduction of the moving image file that is the moving image layer (L1) content may be interrupted. In this case, when a general user presses the “OK” button OB by a touch operation, it is converted into a movie file restart command, and playback of the movie file interrupted in response to the restart command is resumed. Good. Next to the trial button TB, the number of times that a specific general user has tried the content of the video content, that is, the number of trials registered for the video is displayed (in the example of the screen image D1, “twice”). Already registered.) Each time the general user presses the trial button TB by a touch operation, the number of trials is explicitly incremented. That is, when viewing the moving image content, the general user can register the total number of attempts made by the general user. The value of the number of trials “2” of D1 can be used, for example, when the value of the “third” included in the comment C12 is dynamically calculated.

次に、図7を参照して、一実施形態による動画コンテンツの提示方法について説明する。図7は、一実施形態による動画コンテンツの提示方法の処理フロー図を示す。一実施形態による動画コンテンツの提示方法は、主に、サーバ100によって実装される。そして、サーバのアプリケーション部170が有する動画配信部175と、ユーザ端末のアプリケーション部270が有する動画再生部273との協働によって処理される。   Next, a method for presenting moving image content according to an embodiment will be described with reference to FIG. FIG. 7 is a process flow diagram of a moving image content presentation method according to an embodiment. The moving image content presentation method according to an embodiment is mainly implemented by the server 100. Then, the processing is performed in cooperation with the moving image distribution unit 175 included in the application unit 170 of the server and the moving image reproduction unit 273 included in the application unit 270 of the user terminal.

一実施形態による動画コンテンツの提示方法は、ユーザ端末300の入力部240を通じた一般ユーザによる操作(例えばタッチ操作)をトリガにする(S31)。一般ユーザによる操作受けると、動画再生部273は、指定された動画コンテンツの再生をサーバに指示する。それに応じて、動画再生部175は動画ファイルの再生を開始する。特に、動画コンテンツに関し、登録済みの動画レイヤ(L1)コンテンツをユーザ端末300の出力部250に表示する(S32)。なお、動画ファイルの再生は、ストリーミング形式としてもダウンロード形式としてもよい。ダウンロード形式とした場合は、ユーザ端末300(クライアント)側で以降の動画配信処理を完結してもよい。   The method for presenting moving image content according to an embodiment uses an operation (for example, a touch operation) by a general user through the input unit 240 of the user terminal 300 as a trigger (S31). Upon receiving an operation by a general user, the moving image playback unit 273 instructs the server to play the specified moving image content. In response to this, the moving image reproducing unit 175 starts reproducing the moving image file. In particular, regarding the moving image content, the registered moving image layer (L1) content is displayed on the output unit 250 of the user terminal 300 (S32). Note that the reproduction of the moving image file may be a streaming format or a download format. When the download format is adopted, the subsequent video distribution process may be completed on the user terminal 300 (client) side.

動画配信部175は、動画ファイルの再生において所定のタイミングを検出する(S33)。この例では、所定のタイミングに解説レイヤ(L2)コンテンツおよびアイコン・レイヤ(L3)コンテンツが関連付けられている場合(後述)を想定するが、これに限定されない。例えば、1つのタイミングに対し解説レイヤ(L2)コンテンツおよびアイコン・レイヤ(L3)コンテンツの一方のみが関連付けられてもよい。更に、複数のタイミングに対し各レイヤ・コンテンツが別個に関連付けられてもよい。動画配信部175は、所定のタイミングにおいて、動画レイヤ(L1)の上に解説レイヤ(L2)を重畳させる。つまり、所定のタイミングに関連付けられる解説レイヤ(L2)コンテンツを、動画レイヤ(L1)コンテンツの上に重畳する。重畳されたコンテンツは、ユーザ端末300の出力部250に、所定の期間表示させる(S34)。解説レイヤ(L2)コンテンツの表示期間は、所定のタイミングに関連付けられて予め設定される。   The moving image distribution unit 175 detects a predetermined timing in reproducing the moving image file (S33). In this example, it is assumed that the explanation layer (L2) content and the icon layer (L3) content are associated with each other at a predetermined timing (described later), but the present invention is not limited to this. For example, only one of the explanation layer (L2) content and the icon layer (L3) content may be associated with one timing. Furthermore, each layer content may be separately associated with a plurality of timings. The moving image distribution unit 175 superimposes the explanation layer (L2) on the moving image layer (L1) at a predetermined timing. That is, the explanation layer (L2) content associated with a predetermined timing is superimposed on the moving image layer (L1) content. The superimposed content is displayed on the output unit 250 of the user terminal 300 for a predetermined period (S34). The display period of the explanation layer (L2) content is set in advance in association with a predetermined timing.

次いで、動画配信部175は、所定のタイミングに関連付けられるアイコン・レイヤ(L3)コンテンツを決定する(S35)。アイコン・レイヤ(L3)コンテンツには動的に生成されるコメントが含まれる。具体的には、当該コメントは、所定のルールに基づいて決定されるパターンを用いて、ユーザに関する情報(例えば、関連情報192)に基づいて動的に生成される。引き続き、動画配信部175は、解説レイヤ(L2)の上にアイコン・レイヤ(L3)を重畳させる。つまり、所定のタイミングに関連付けられるアイコン・レイヤ(L3)コンテンツを、解説レイヤ(L2)コンテンツの上に重畳する。重畳されたコンテンツはユーザ端末300の出力部250に所定の期間表示させる(S36)。アイコン・レイヤ(L3)コンテンツの表示期間は、所定のタイミングに関連付けられて予め設定される。動画ファイルの再生中は、S33からS36の処理が繰り返し実施される。   Next, the moving image distribution unit 175 determines the icon layer (L3) content associated with the predetermined timing (S35). The icon layer (L3) content includes dynamically generated comments. Specifically, the comment is dynamically generated based on information about the user (for example, related information 192) using a pattern determined based on a predetermined rule. Subsequently, the moving image distribution unit 175 superimposes the icon layer (L3) on the explanation layer (L2). That is, the icon layer (L3) content associated with a predetermined timing is superimposed on the explanation layer (L2) content. The superimposed content is displayed for a predetermined period on the output unit 250 of the user terminal 300 (S36). The display period of the icon layer (L3) content is set in advance in association with a predetermined timing. During the reproduction of the moving image file, the processing from S33 to S36 is repeatedly performed.

図8および図9を参照して、一実施形態による動画コンテンツの提示方法に関する例示の動画コンテンツの提示態様を示す。図8は、動画コンテンツの全体概要を概念的に示し、図9は、図8に対応する具体的な画面イメージの遷移図を示す。図8に示すように、動画レイヤ(L1)コンテンツは、「腹式呼吸」に関する3分間の動画ファイルに関し、タイミングとして#1(0:00),#2(0:52),#3(2:10)の3つが設定されていることを想定する。このように、動画レイヤ(L1)コンテンツに関するタイミングに、解説レイヤ(L2)コンテンツおよび/またはアイコン・レイヤ(L3)コンテンツが関連付けられている。   With reference to FIG. 8 and FIG. 9, the presentation aspect of the example moving image content regarding the presentation method of the moving image content by one Embodiment is shown. FIG. 8 conceptually shows the overall outline of the moving image content, and FIG. 9 shows a specific screen image transition diagram corresponding to FIG. As shown in FIG. 8, the video layer (L1) content is related to the video file for 3 minutes related to “abdominal breathing” as the timings of # 1 (0:00), # 2 (0:52), # 3 (2 : 10) is assumed to be set. As described above, the explanation layer (L2) content and / or the icon layer (L3) content are associated with the timing related to the moving image layer (L1) content.

タイミング#1に関連し、次のタイミング#2まで、動画レイヤ(L1)コンテンツの上に解説レイヤ(L2)コンテンツが重畳して表示される。解説レイヤ(L2)コンテンツは、予め設定された「1.リラックスした状態でまっすぐ立ちます」である。また、タイミング#1の時点で、解説レイヤ(L2)コンテンツの上に更にアイコン・レイヤ(L3)コンテンツが重畳される。アイコン・レイヤ(L3)コンテンツは、コンテンツ・テーブルに規定されるパターン1の#1001.txt(「“ユーザ名”さん、“X”回目の腹式呼吸ですね!1日“Y回”を目標に頑張ってくださいね!」)に基づいて動的に生成される。   In relation to the timing # 1, the explanation layer (L2) content is displayed superimposed on the moving image layer (L1) content until the next timing # 2. The explanation layer (L2) content is preset “1. Stand straight in a relaxed state”. Further, at the time of timing # 1, the icon layer (L3) content is further superimposed on the explanation layer (L2) content. The icon layer (L3) content is the pattern 1 # 1001. It is dynamically generated based on txt (“Mr.“ user name ”,“ X ”abdominal breathing! Please try“ Y times ”a day!”).

ここでは、コンテンツ・テーブル(図8下部)を参照し、予め設定されたタイミング#1に対応するルールに基づいて、画面イメージD1に表示された回数(即ち、動画に対して登録された回数)に応じてパターンが決定される。具体的には、パターン1の#1001.txtが採用される。なお、回数「2」は、Xの値としても使用される。また、ユーザ名として、一般ユーザのユーザ情報を使用するのがよい。更に、この一般ユーザに関連付けられる初期サーベイからのユーザ情報(例えば、ユーザの属性や嗜好情報)に基づいて、腹式呼吸を毎日頻繁に意識して行うべきユーザであると判定されるような場合に、Yの値として「10」が動的に設定されてもよい。   Here, referring to the content table (lower part of FIG. 8), the number of times displayed on the screen image D1 based on the rule corresponding to the preset timing # 1 (that is, the number registered for the video) The pattern is determined according to Specifically, pattern # 1 # 1001. txt is adopted. The number of times “2” is also used as the value of X. Moreover, it is good to use the user information of a general user as a user name. Furthermore, when it is determined that the user should be conscious of daily abdominal breathing frequently based on user information (for example, user attributes and preference information) from the initial survey associated with the general user. In addition, “10” may be dynamically set as the value of Y.

これにより、一般ユーザの基本属性や嗜好といった基本情報に基づいて動画上のコメントを動的に生成することができ、一般ユーザ向けにカスタマイズされた動画コンテンツを生成することができる。加えて、ユーザに関連した情報以外にも、タグ設定部173によって、動画ファイルに関連付けられるタグ情報を用いてルールやパターンが規定されてもよい。タグ情報は、指導者が動画ファイルを初期登録するときに、その指導者によって登録されてもよいし、或いは、不特定多数の一般ユーザによって動画コンテンツが視聴される都度フィードバックとして登録されてもよい。これにより、他の一般ユーザによる視聴状況にしたがい、世の中の状況を適切に反映してカスタマイズされた動画コンテンツを生成することができる。   Thereby, the comment on a moving image can be dynamically generated based on basic information such as basic attributes and preferences of general users, and moving image content customized for general users can be generated. In addition to the information related to the user, the tag setting unit 173 may define rules and patterns using tag information associated with the moving image file. The tag information may be registered by the instructor when the instructor initially registers the video file, or may be registered as feedback whenever video content is viewed by an unspecified number of general users. . Thereby, according to the viewing situation by other general users, it is possible to generate customized video content that appropriately reflects the world situation.

また、タイミング#1では、図9の画面イメージD1(図6)のように、アイコン・レイヤ(L3)コンテンツの一部として「OK」ボタンOBが表示され、タッチ操作を受けない限り、動画レイヤ(L1)コンテンツの動画ファイルの再生が中断される。「OK」ボタンOBへのタッチ操作を受けると、アイコン・レイヤ(L3)が除去され、動画レイヤ(L1)コンテンツの上に解説レイヤ(L2)コンテンツが重畳して表示された表示状態として、動画レイヤ(L1)コンテンツの動画ファイルが再生される。   At timing # 1, as shown in the screen image D1 (FIG. 6) of FIG. 9, the “OK” button OB is displayed as a part of the icon layer (L3) content, and unless the touch operation is received, the video layer (L1) The reproduction of the moving image file of the content is interrupted. When a touch operation on the “OK” button OB is received, the icon layer (L3) is removed, and the commentary layer (L2) content is displayed superimposed on the video layer (L1) content. A moving image file of the layer (L1) content is reproduced.

タイミング#1の次のタイミング#2に関連し、タイミング#2から35秒の間、動画レイヤ(L1)コンテンツの上に解説レイヤ(L2)コンテンツが重畳して表示される。解説レイヤ(L2)コンテンツは、予め設定された「2.鼻から息を吸い、口から息を吐きましょう」である。同じく、タイミング#2から35秒の間、解説レイヤ(L2)コンテンツの上に更にアイコン・レイヤ(L3)コンテンツが重畳される。アイコン・レイヤ(L3)コンテンツは、コンテンツ・テーブルに規定されるパターン1#2001.txt(「“ユーザ名”さんの場合は、10秒以上鼻から息を吸うことを特に心がけてくださいね〜!!」)に基づいて動的に生成される。   In relation to the timing # 2 next to the timing # 1, the explanation layer (L2) content is superimposed and displayed on the moving image layer (L1) content for 35 seconds from the timing # 2. The explanation layer (L2) content is preset “2. Take a breath from the nose and exhale from the mouth”. Similarly, the icon layer (L3) content is further superimposed on the explanation layer (L2) content for 35 seconds from timing # 2. The icon layer (L3) content has a pattern 1 # 2001. It is dynamically generated based on txt (“In the case of“ user name ”, take special care to inhale from the nose for 10 seconds or more!”).

ここでは、コンテンツ・テーブルを参照し、予め設定されたタイミング#2に対応するルールに基づいて、パターン1の#2001.txtが決定される。具体的には、この一般ユーザに関連付けられる初期サーベイからのユーザ情報(例えば、ユーザの属性や嗜好情報)に基づいて、この一般ユーザの「初期症状」が「動悸息切れ」に該当すると判断され、上記パターン1の#2001.txtが決定される。このようにして生成されたタイミング#2での画面表示は、画面イメージD2に示される。   Here, referring to the content table, based on the rule corresponding to the preset timing # 2, # 2001. txt is determined. Specifically, based on user information (for example, user attributes and preference information) from the initial survey associated with the general user, it is determined that the “initial symptom” of the general user corresponds to “shortage of heartbeat”, # 2001 of pattern 1 above. txt is determined. The screen display at timing # 2 generated in this way is shown in the screen image D2.

タイミング#2の次のタイミング#3に関しても同様である。つまり、タイミング#3から動画の終了まで間、動画レイヤ(L1)コンテンツの上に解説レイヤ(L2)コンテンツが重畳して表示される。解説レイヤ(L2)コンテンツは、予め設定された「3.細く長い呼吸を意識しながら繰り返します」である。同じく、タイミング#3から動画の終了までの間、解説レイヤ(L2)コンテンツの上に更にアイコン・レイヤ(L3)コンテンツが重畳される。アイコン・レイヤ(L3)コンテンツは、コンテンツ・テーブルに規定されるパターン1#3001.txt(「しっかり伸ばすと、“ユーザ名”さんが“気にしている症状”にも効きますよっ!!!!」に基づいて動的に生成される。   The same applies to timing # 3 next to timing # 2. That is, from the timing # 3 to the end of the moving image, the explanation layer (L2) content is displayed superimposed on the moving image layer (L1) content. The explanation layer (L2) content is preset “3. Repeat with awareness of thin and long breathing”. Similarly, the icon layer (L3) content is further superimposed on the explanation layer (L2) content from timing # 3 to the end of the moving image. The icon layer (L3) content has a pattern 1 # 3001. txt (Generated dynamically based on “If stretched firmly,“ user name ”will also be effective for the symptoms”)!

ここでは、コンテンツ・テーブルを参照し、予め設定されたタイミング#3に対応するルールに基づいて、パターン1の#3001.txtが決定される。具体的には、この一般ユーザに関連付けられて日頃取得される、ライフログとも称されるユーザの行動情報(歩数、移動距離、移動範囲、運動パターン等)から、この一般ユーザに関する「気になる症状」が動的に決定される。そして、「気になる症状」が「猫背」に該当する場合には、アイコン・レイヤ(L3)コンテンツとしてパターン1の#3001.txtが採用され、その値が使用されて表示される。このようにして生成されたタイミング#3での画面表示は、画面イメージD3に示される。   Here, by referring to the content table and based on a rule corresponding to the preset timing # 3, pattern # 3001. txt is determined. Specifically, the user's behavior information (step count, distance traveled, range of movement, exercise pattern, etc.), also referred to as a life log, which is regularly acquired in association with the general user, is related to the general user. “Symptoms” are determined dynamically. If the “symptom to be worried about” corresponds to “back of the neck”, as the icon layer (L3) content, # 3001. txt is adopted and its value is used and displayed. The screen display at timing # 3 generated in this way is shown in the screen image D3.

一実施形態によれば、動画に対し、関連するコメントを視聴ユーザ向けに動的に生成およびカスタマイズしてマルチ・レイヤ化して表示することにより、視聴ユーザにとってよりインタラクティブ性の高い動画コンテンツを提示することができる。特に、動画配信において、視聴ユーザの基本属性、嗜好およびライフログ、並びに他の視聴ユーザによる視聴状況(タグ情報の付与状況)にしたがい、状況を適切に反映したコメントを提供可能とするコンテンツ提示方法およびプログラムを実現することができる。   According to an exemplary embodiment, a moving image that is more interactive for a viewing user is presented by dynamically generating and customizing a related comment for the viewing user and displaying the comment in a multi-layered manner. be able to. In particular, in video distribution, a content presentation method capable of providing a comment that appropriately reflects the situation according to the basic attributes, preferences and life log of the viewing user, and the viewing situation (addition situation of tag information) by other viewing users And a program can be realized.

上述した実施形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。   The above-described embodiments are merely examples for facilitating understanding of the present invention, and are not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof.

Claims (6)

コンピュータによって実装される、動画コンテンツの提示方法であって、
第1ユーザによる操作に応じて、前記動画コンテンツの第1レイヤにおいて動画の再生を開始するステップと、
前記動画の再生における複数の所定のタイミングで、該タイミング予め関連付けられた第1コメントを、前記第1レイヤ上に重畳される第2レイヤに所定の第1間表示するステップと
前記タイミング毎に、前記第1ユーザに関連付けられるルールに基づいて所定の複数のパターンから選択されるパターンを用いて、第2コメントを動的に生成し、該第2コメントを、前記第1レイヤおよび前記第2レイヤ上に重畳される第3レイヤに所定の第2期間表示するステップと、
を含む、方法。
A video content presentation method implemented by a computer,
In response to an operation by a first user, starting playback of a video in the first layer of the video content ;
A plurality of predetermined timing in reproduction of the moving picture, first comment, the first ray predetermined first period between table Shimesuru steps to second layer superimposed on Ya that is pre-associated with each said timing And
At each timing, a second comment is dynamically generated using a pattern selected from a plurality of predetermined patterns based on a rule associated with the first user, and the second comment is added to the first layer. And displaying for a predetermined second period on a third layer superimposed on the second layer;
Including a method.
請求項1記載の方法において、前記第コメントは、前記第1ユーザによって前記動画に対して登録された試行回数に基づいて生成される、方法。 The method of claim 1, wherein the second comment is generated based on the number of trials registered for the video by the first user. 請求項1または2記載の方法において、前記パターンが、前記第1ユーザに関連付けられて取得されたライフログに基づいて選択される、方法。3. The method according to claim 1 or 2, wherein the pattern is selected based on a life log acquired in association with the first user. 請求項1からの何れか一項記載の方法において、
前記第3レイヤキャラクタ・アイコン画像が表示され該キャラクタ・アイコン画像が前記第2コメントに関連付けられる第2ユーザのアイコン画像である、方法。
The method according to any one of claims 1 to 3,
The character icon image in the third layer is displayed, in the icon image der of the second user to the character icon image associated with the second comment, method.
請求項1からの何れか一項記載の方法であって、前記コンピュータがタッチパネルを備え、当該方法が、更に、
前記第3レイヤが重畳されて前記第2コメントが表示されると、前記動画の再生を中断するステップを含み、
前記タッチパネルへのタッチ操作を通じた、前記第3レイヤに更に含まれるボタン・アイコンに対する命令に応じて、前記中断された動画の再生が再開される、方法。
5. The method according to any one of claims 1 to 4, wherein the computer comprises a touch panel, the method further comprising:
When the third Layer is superimposed on the second comment is displayed includes discontinuing reproduction of the video,
It said through touch operation on the touch panel, in response to said instruction with respect to the third lay more button icons included in ya, said interrupted video playback is resumed, the method.
請求項1から5の何れか一項記載の方法を前記コンピュータに実行させる、プログラム。   A program for causing a computer to execute the method according to any one of claims 1 to 5.
JP2017163265A 2017-08-28 2017-08-28 Video content presentation method and program Expired - Fee Related JP6339730B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017163265A JP6339730B1 (en) 2017-08-28 2017-08-28 Video content presentation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017163265A JP6339730B1 (en) 2017-08-28 2017-08-28 Video content presentation method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018090579A Division JP2019041370A (en) 2018-05-09 2018-05-09 Video content presentation method and program

Publications (2)

Publication Number Publication Date
JP6339730B1 true JP6339730B1 (en) 2018-06-06
JP2019041319A JP2019041319A (en) 2019-03-14

Family

ID=62487279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017163265A Expired - Fee Related JP6339730B1 (en) 2017-08-28 2017-08-28 Video content presentation method and program

Country Status (1)

Country Link
JP (1) JP6339730B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110381359B (en) * 2019-06-26 2022-03-08 北京奇艺世纪科技有限公司 Video processing method and device, computer equipment and storage medium

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001036485A (en) * 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> Broadcast contents configuration method, broadcast reception method, broadcast reception system and storage medium storing broadcast reception program
JP2005136688A (en) * 2003-10-30 2005-05-26 Matsushita Electric Ind Co Ltd Television receiver
JP2006066050A (en) * 2004-07-27 2006-03-09 Matsushita Electric Ind Co Ltd Content reproducing device and content reproducing method
JP2007189354A (en) * 2006-01-11 2007-07-26 Hitachi Ltd Digital broadcasting receiver, and digital television broadcasting receiver
JP2009213782A (en) * 2008-03-12 2009-09-24 Xing Inc Exercise supporting device, exercise supporting system, exercise supporting method and computer program
JP2014164657A (en) * 2013-02-27 2014-09-08 Nintendo Co Ltd Information processing program, information processing device, information sharing system, and information sharing method
JP2015200890A (en) * 2014-04-08 2015-11-12 ▲懐▼澤企業有限公司 Distance education method and distance education providing server device
JP2016163684A (en) * 2015-02-27 2016-09-08 パナソニックIpマネジメント株式会社 Online coaching method, online coaching system, and control device
JP2017199318A (en) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 Online training server device, online training method and online training program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001036485A (en) * 1999-07-16 2001-02-09 Nippon Telegr & Teleph Corp <Ntt> Broadcast contents configuration method, broadcast reception method, broadcast reception system and storage medium storing broadcast reception program
JP2005136688A (en) * 2003-10-30 2005-05-26 Matsushita Electric Ind Co Ltd Television receiver
JP2006066050A (en) * 2004-07-27 2006-03-09 Matsushita Electric Ind Co Ltd Content reproducing device and content reproducing method
JP2007189354A (en) * 2006-01-11 2007-07-26 Hitachi Ltd Digital broadcasting receiver, and digital television broadcasting receiver
JP2009213782A (en) * 2008-03-12 2009-09-24 Xing Inc Exercise supporting device, exercise supporting system, exercise supporting method and computer program
JP2014164657A (en) * 2013-02-27 2014-09-08 Nintendo Co Ltd Information processing program, information processing device, information sharing system, and information sharing method
JP2015200890A (en) * 2014-04-08 2015-11-12 ▲懐▼澤企業有限公司 Distance education method and distance education providing server device
JP2016163684A (en) * 2015-02-27 2016-09-08 パナソニックIpマネジメント株式会社 Online coaching method, online coaching system, and control device
JP2017199318A (en) * 2016-04-28 2017-11-02 パナソニックIpマネジメント株式会社 Online training server device, online training method and online training program

Also Published As

Publication number Publication date
JP2019041319A (en) 2019-03-14

Similar Documents

Publication Publication Date Title
US20230127228A1 (en) Identifying applications on which content is available
US11931625B2 (en) User interfaces for group workouts
WO2019228120A1 (en) Video interaction method and device, terminal, and storage medium
DK179167B1 (en) USER INTERFACE FOR NAVIGATION AND PLAYBACK OF CONTENTS
US10721194B2 (en) User terminal device for recommending response to a multimedia message based on age or gender, and method therefor
JP6913634B2 (en) Interactive computer systems and interactive methods
US20130007103A1 (en) Managing Interactive Content on Client Devices
KR101921926B1 (en) Operating method and content providing system
WO2018157812A1 (en) Method and apparatus for implementing video branch selection and playback
JP5874656B2 (en) Information processing apparatus, information processing method, and program
US10860182B2 (en) Information processing apparatus and information processing method to superimpose data on reference content
JP2009145883A (en) Learning system, storage medium, and learning method
WO2022213773A1 (en) Page display control method and apparatus, device, and storage medium
KR20170012979A (en) Electronic device and method for sharing image content
US20220368993A1 (en) User interfaces for media sharing and communication sessions
JP6339730B1 (en) Video content presentation method and program
KR101968953B1 (en) Method, apparatus and computer program for providing video contents
JP7000289B2 (en) Programs, information processing equipment, and methods
CN109729729B (en) Information processing system and information processing method
JP2021106324A (en) Content distribution system, content distribution method, and content distribution program
CN106790196A (en) The interactive method and apparatus of red packet
US20140178035A1 (en) Communicating with digital media interaction bundles
JP2019041370A (en) Video content presentation method and program
KR20160050664A (en) Electronic device having tactile sensor, method for operating thereof and system
US11922006B2 (en) Media control for screensavers on an electronic device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180510

R150 Certificate of patent or registration of utility model

Ref document number: 6339730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees