JP6896828B2 - Output control program, information processing device and output control method - Google Patents
Output control program, information processing device and output control method Download PDFInfo
- Publication number
- JP6896828B2 JP6896828B2 JP2019202323A JP2019202323A JP6896828B2 JP 6896828 B2 JP6896828 B2 JP 6896828B2 JP 2019202323 A JP2019202323 A JP 2019202323A JP 2019202323 A JP2019202323 A JP 2019202323A JP 6896828 B2 JP6896828 B2 JP 6896828B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- content
- sub
- main
- file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、複数のコンテンツの出力状態を調整する出力制御プログラム、情報処理装置及び出力制御方法に関する。 The present invention relates to an output control program, an information processing device, and an output control method for adjusting the output states of a plurality of contents.
スピーカ等を備えた音響装置において、再生される音としてBGM、台詞、効果音等さまざまなものがある。ここで、同時並列的に出力される音の種類に応じて、相対的な優先度があり、音量等を調整すべき場合もある。例えば、BGMが恒常的に出力されている状況下で、台詞が間欠的に出力される場合には、台詞を聴こえやすくするために、台詞の出力レベルに応じてBGMのレベルを下げるように調整するダッキング処理が行なわれる(特許文献1を参照)。 In an audio device equipped with a speaker or the like, there are various sounds to be reproduced such as BGM, dialogue, and sound effects. Here, there is a relative priority according to the types of sounds output simultaneously and in parallel, and there are cases where the volume and the like should be adjusted. For example, when the dialogue is output intermittently in the situation where the BGM is constantly output, the BGM level is adjusted to be lowered according to the output level of the dialogue in order to make the dialogue easier to hear. Ducking process is performed (see Patent Document 1).
また、スマートフォン等のコンピュータ端末を利用するユーザに対して、各種コンテンツが提供されている。このようなコンテンツは、ウェブページにより提供される場合がある。このウェブページは、HTML(HyperText Markup Language)等のマークアップ言語で記述されている。更に、ウェブページにおいて、オーディオや動画などの、多様なメディアコンテンツを提供できる規格も開示されている(非特許文献1、2を参照)。この規格においては、メディア要素(<audio>要素、<video>要素)及びWeb Audio APIにより、メディアコンテンツを再生することができる。
In addition, various contents are provided to users who use computer terminals such as smartphones. Such content may be provided by web pages. This web page is written in a markup language such as HTML (HyperText Markup Language). Further, a standard capable of providing various media contents such as audio and moving images is also disclosed on a web page (see Non-Patent
ウェブページにおいても、複数のコンテンツ(例えば、音声ファイル)を同時に再生することがある。例えば、ゲーム画面において、BGM(副音声)を出力しながら、ナレーション(主音声)を出力することがある。この場合、主音声が出力されている間は、副音声の音量を下げる。そして、主音声が終了した後に、副音声の音量を元に戻す処理が行なわれている。 Even on a web page, a plurality of contents (for example, an audio file) may be played at the same time. For example, on the game screen, narration (main voice) may be output while outputting BGM (secondary voice). In this case, the volume of the sub sound is lowered while the main sound is being output. Then, after the main sound is finished, a process of restoring the volume of the sub sound is performed.
しかしながら、ゲームのように、音声内容が状況に応じて変化する場合には、最適な音声素材を作成することが困難であった。また、クライアント端末のブラウザを利用してコンテンツを出力する場合、再生環境に応じて音量が異なることがある。この場合、再生環境に応じて、音量を調整したコンテンツを準備することは煩雑であった。 However, when the audio content changes depending on the situation as in a game, it is difficult to create an optimum audio material. Further, when the content is output using the browser of the client terminal, the volume may differ depending on the playback environment. In this case, it is complicated to prepare the content whose volume is adjusted according to the playback environment.
本発明は、上述した問題に鑑みてなされたものであり、その目的は、複数のコンテンツを同時に出力する場合に、コンテンツの出力状況を調整するための出力制御プログラム、情報処理装置及び出力制御方法を提供することにある。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is an output control program, an information processing device, and an output control method for adjusting the output status of contents when a plurality of contents are output at the same time. Is to provide.
上記課題を解決する出力制御プログラムは、マークアップ言語で記述され、再生環境に関する情報を取得するための記述を含むファイルに基づきウェブページを表示するブラウザを備えたコンピュータ端末において、ウェブページに含まれる複数のコンテンツを再生する実行手段として機能させるプログラムであって、前記コンピュータ端末の制御部を、前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定手段、前記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記再生環境に応じて設定する出力条件設定手段、前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前記副コンテンツを出力する出力調整手段、として機能させる。
上記課題を解決する情報処理装置は、マークアップ言語で記述され、再生環境に関する情報を取得するための記述を含むファイルに基づきウェブページを表示するブラウザを備え、ウェブページに含まれる複数のコンテンツを再生する情報処理装置であって、前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定手段、前記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記再生環境に応じて設定する出力条件設定手段、前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前記副コンテンツを出力する出力調整手段、を備える。
上記課題を解決する出力制御方法は、マークアップ言語で記述され、再生環境に関する情報を取得するための記述を含むファイルに基づきウェブページを表示するブラウザを備えたコンピュータ端末において、ウェブページに含まれる複数のコンテンツを再生する出力制御方法であって、前記コンピュータ端末の制御部が、前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定ステップ、前記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記再生環境に応じて設定する出力条件設定ステップ、前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前記副コンテンツを出力する出力調整ステップ、を実行する。
An output control program that solves the above problems is included in a web page in a computer terminal equipped with a browser that is written in a markup language and displays a web page based on a file containing a description for acquiring information about a playback environment. A program that functions as an execution means for playing back a plurality of contents, and is a main content for a plurality of contents to be output when the control unit of the computer terminal plays back a markup language that constitutes a web page acquired by the browser. And the main / sub-identifying means for specifying the sub-content, and when the main content and the sub-content are output at the same time, the playback environment sets the output conditions that make the output method of the main content different from the output method of the sub-content. When an event that outputs the main content and the sub-content at the same time is detected in the output condition setting means and the markup language that are set according to the output conditions, the main content and the sub-content are output based on the output condition. It functions as an output adjusting means.
The information processing device that solves the above problems is provided with a browser that is described in a markup language and displays a web page based on a file containing a description for acquiring information about the playback environment, and can display a plurality of contents included in the web page. A main / sub-identifying means for specifying a main content and a sub-content for a plurality of contents to be output when the markup language constituting the web page acquired by the browser is played, which is an information processing device to be reproduced, the main content and In the markup language, an output condition setting means for setting output conditions that make the output method of the main content different from the output method of the sub-content according to the playback environment when the sub-content is output at the same time. , An output adjusting means for outputting the main content and the sub-content based on the output condition when an event for simultaneously outputting the main content and the sub-content is detected.
An output control method that solves the above problems is included in a web page in a computer terminal equipped with a browser that is described in a markup language and displays a web page based on a file containing a description for acquiring information about a playback environment. An output control method for playing back a plurality of contents, the main content and the sub-contents of the plurality of contents to be output when the control unit of the computer terminal plays back the markup language constituting the web page acquired by the browser. When the main content and the sub-content are output at the same time, the output conditions for differentiating the output method of the main content and the output method of the sub-content are set according to the playback environment. Output condition setting step, output adjustment to output the main content and the sub-content based on the output condition when an event to output the main content and the sub-content at the same time is detected in the markup language. Perform the steps.
本発明によれば、複数のコンテンツを同じ場面において出力する場合に、コンテンツの出力状況を効率的に調整することができる。 According to the present invention, when a plurality of contents are output in the same scene, the output status of the contents can be efficiently adjusted.
<第1の実施形態>
以下、図1、図2に従って、出力制御プログラムの一実施形態を説明する。
本実施形態では、図1に示すように、クライアント端末20が、サーバ10から取得したファイル(マークアップ言語ファイル)に基づいて、複数のコンテンツを再生する場合を想定する。
<First Embodiment>
Hereinafter, an embodiment of the output control program will be described with reference to FIGS. 1 and 2.
In the present embodiment, as shown in FIG. 1, it is assumed that the
ユーザが利用するクライアント端末20は、ネットワークを介してサーバ10に接続されている。このサーバ10は、ファイル記憶部12を備える。
ファイル記憶部12には、クライアント端末20に提供するファイルを記憶させておく。ここでは、マークアップ言語により記述されたファイルを記録しておく。このファイルには、後述するように、クライアント端末20において、各種手段を実現するための記述(出力制御プログラム)を含めておく。本実施形態では、後述するダッキング管理手段213、主副特定手段214、出力条件設定手段215を実現するための記述を含める。
The
The
更に、このファイルには、出力時に使用する複数のコンテンツに関する情報(コンテンツ情報)を含んでいる。コンテンツ情報は、オーディオや動画等のコンテンツの取得先に関する情報が含まれる。ここで、取得先は、このアイテムを利用する場合、提供可能なオブジェクトが格納されたアドレス情報(例えば、URL:Uniform Resource Locator)である。
更に、ファイルには、各コンテンツにおいて、主コンテンツ又は副コンテンツのいずれかを特定するための主副設定情報を含める。
Further, this file contains information (content information) regarding a plurality of contents used at the time of output. The content information includes information regarding the acquisition destination of the content such as audio and video. Here, the acquisition destination is the address information (for example, URL: Uniform Resource Locator) in which the object that can be provided is stored when this item is used.
Further, the file contains the main / sub setting information for identifying either the main content or the sub content in each content.
クライアント端末20は、ファイルを閲覧するユーザが利用するコンピュータ(スマートフォン等の情報処理端末)であり、出力制御装置として機能する。このクライアント端末20は、CPU、メモリ(RAM及びROM)等からなる制御部21、端末記憶部22、入出力部23を備えている。
The
端末記憶部22には、クライアント端末20において用いられる各種設定やプログラムが記録される。本実施形態では、マークアップ言語で記載されたファイルを表示するブラウザ(プログラム)が格納される。
入出力部23は、タッチパネルディスプレイ等により構成され、データの出力や入力を行なう。
Various settings and programs used in the
The input /
制御部21は、端末記憶部22に格納されたブラウザプログラムを実行することにより、ブラウザ210を起動させる。このブラウザ210は、ファイル取得手段211、出力処理手段212を備える。
The
ファイル取得手段211は、ファイル(マークアップ言語ファイル)を読み込む。
出力処理手段212は、マークアップ言語ファイルをウェブページとして、入出力部23に出力する。
The file acquisition means 211 reads a file (markup language file).
The output processing means 212 outputs the markup language file as a web page to the input /
更に、ブラウザ210は、このファイルに含まれる記述を実行する。この記述を実行することにより、制御部21は、ダッキング管理手段213、主副特定手段214、出力条件設定手段215として機能する。具体的には、ブラウザ210のファイル取得手段211によって、サーバ10のファイル記憶部12に格納されたJavaScript(登録商標)を取得する。そして、このJavaScript(登録商標)の記述に基づいて、制御部21が、このダッキング管理手段213、主副特定手段214、出力条件設定手段215を機能させる。
Further, the
ダッキング管理手段213は、ダッキング処理の必要性を検知する。
主副特定手段214は、ファイル再生に利用する複数のコンテンツについて、主コンテンツ又は副コンテンツを特定する。
The ducking management means 213 detects the necessity of the ducking process.
The main / sub-identifying means 214 identifies the main content or the sub-content for a plurality of contents used for file reproduction.
出力条件設定手段215は、主コンテンツ、副コンテンツが同時に出力される場合の出力条件を設定する。この出力条件設定手段215は、主コンテンツ、副コンテンツを同時に出力するときの主コンテンツ、副コンテンツの出力条件(出力レベル)に関する情報を保持させておく。例えば、オーディオに関するコンテンツの場合には、主コンテンツと副コンテンツとの音量比を大きくする設定に関する情報を保持させておく。これにより、副コンテンツに対して、主コンテンツを目立たせることができる。 The output condition setting means 215 sets the output condition when the main content and the sub content are output at the same time. The output condition setting means 215 holds information on the output conditions (output level) of the main content and the sub-content when the main content and the sub-content are output at the same time. For example, in the case of audio-related content, information regarding a setting for increasing the volume ratio between the main content and the sub-content is stored. As a result, the main content can be made to stand out with respect to the sub-content.
次に、図2を用いて、クライアント端末20において、ファイルに含まれるコンテンツを出力する場合の処理を説明する。
まず、クライアント端末20の制御部21は、ファイルの読込処理を実行する(ステップS1−1)。具体的には、入出力部23を介して、ブラウザ210に、出力希望のファイルのURLを入力する。この場合、ブラウザ210は、ファイル取得手段211により、サーバ10に対して、URLのコンテンツを要求する。そして、ブラウザ210は、サーバ10から、ファイルを取得する。ここでは、ファイルとして、マークアップ言語ファイルを取得する場合を想定する。このファイルには、ダッキング管理手段213、主副特定手段214、出力条件設定手段215を実現するための記述が含まれる。更に、このファイルには、出力時に使用するコンテンツ(例えば、オーディオ)に関する情報が含まれている。
Next, the process of outputting the content included in the file on the
First, the
次に、クライアント端末20の制御部21は、ファイルの再生処理を実行する(ステップS1−2)。具体的には、制御部21のブラウザ210の出力処理手段は、サーバ10から取得したファイルを出力する。ここで、ファイルに含まれる単独のコンテンツを出力する場合には、そのまま再生する。
Next, the
この場合、クライアント端末20の制御部21は、ダッキング処理を実行する。
このダッキング処理においては、まず、クライアント端末20の制御部21は、イベント待機処理を実行する(ステップS2−1)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213により、複数のコンテンツが同時に出力されるイベントを待機する。
In this case, the
In this ducking process, first, the
複数のコンテンツが同時に出力されるイベントを検知した場合、クライアント端末20の制御部21は、ダッキングが必要かどうかについての判定処理を実行する(ステップS2−2)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213は、ファイルに含まれる複数のコンテンツに対して、主副設定情報の有無を確認する。そして、主副設定情報が含まれる場合には、ダッキングが必要と判定する。
When an event in which a plurality of contents are output at the same time is detected, the
ダッキングが必要でないと判定した場合(ステップS2−2において「NO」の場合)、イベント待機処理(ステップS2−1)を継続する。
一方、ダッキングが必要と判定した場合(ステップS2−2において「YES」の場合)、クライアント端末20の制御部21は、主副コンテンツの特定処理を実行する(ステップS2−3)。具体的には、制御部21のブラウザ210は、主副特定手段214により、ファイルに含まれる主副設定情報に基づいて、主コンテンツを特定する。
When it is determined that ducking is not necessary (when "NO" in step S2-2), the event waiting process (step S2-1) is continued.
On the other hand, when it is determined that ducking is necessary (when "YES" in step S2-2), the
次に、クライアント端末20の制御部21は、主副コンテンツの出力条件の変更処理を実行する(ステップS2−4)。具体的には、制御部21のブラウザ210は、出力条件設定手段215により、予め設定された出力条件を取得し、この出力条件に変更する。例えば、オーディオコンテンツの場合、主コンテンツの音量を上げ、副コンテンツの音量を下げる出力条件に変更する。
Next, the
次に、クライアント端末20の制御部21は、ダッキング終了かどうかについての判定処理を実行する(ステップS2−5)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213により、複数のコンテンツが同時に出力されるイベントの終了を待機する。
Next, the
ダッキング終了でないと判定した場合(ステップS2−5において「NO」の場合)、変更された出力条件を維持する。
一方、ダッキング終了と判定した場合(ステップS2−5において「YES」の場合)、クライアント端末20の制御部21は、出力条件を元に戻す処理を実行する(ステップS2−6)。具体的には、制御部21のブラウザ210は、出力条件設定手段215は、変更した出力条件を元に戻す。例えば、オーディオコンテンツにおいて、下げた音量を元の音量に戻すように上げる。
When it is determined that the ducking is not completed (in the case of "NO" in step S2-5), the changed output condition is maintained.
On the other hand, when it is determined that the ducking is completed (when "YES" in step S2-5), the
次に、図3、図4を用いて、クライアント端末20に対して、ファイル(マークアップ言語ファイル)に含めて提供するコード(プログラム)の一例を説明する。ここでは、JavaScript(登録商標)を用いて記述されたコードを提供する場合を想定する。このコード例では、オーディオコンテンツにおいてダッキングを行なう場合を想定する。以下、このコードを、2つの第1パート500(図3)、第2パート510(図4)に分けて説明する。
Next, an example of a code (program) to be included in a file (markup language file) and provided to the
図3に示す第1パート500においては、記述501〜507を含む。
記述501では、オブジェクト「AudioScene」に基づいて、オブジェクト「scene」を生成する。
The
In
記述502では、オブジェクト「scene」において、シーンにおいて、環境音(「EnvironmentSound-1」,「EnvironmentSound-2」)とキャラクターの音声(「Speech」)とを追加する。
In the
記述503では、環境音を再生する。
記述504では、キャラクターの音声を再生する。なお、キャラクターの音声を再生する場合には、後述するようにダッキングを行なう。
In
In
記述505では、小さい音量(出力条件)を戻り値として返す小音量決定関数が設定され、記述506では、大きな音量(出力条件)を戻り値として返す大音量決定関数が設定される。
記述507では、記述502において、シーンに音を追加する関数が設定される。
In the
In
図4に示す第2パート510においては、ダッキングのための記述511〜515を含む。
記述511では、プライマリの音(主音声)を決める。ここでは、主音声としてキャラクターの音声(「Speech」)を用いる。
The
In
記述512では、記述502に基づいて、シーンに含まれるすべての音を操作する。
記述513では、プライマリの音(主音声)を取得した場合には、主音声の長さに応じて、大きな音量を用いて、この音声を再生する。
In
In
記述514では、プライマリの音(主音声)の再生が終わったときにセカンダリ(副音声)の音量を元に戻す。
一方、記述515では、プライマリ以外の音、すなわちセカンダリの音(副音声)については、小さな音量を用いて再生する。
In
On the other hand, in the
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、ファイルに、ダッキング管理手段213を実現させるための記述を含める。ダッキング管理手段213は、ファイルの再生において、複数のコンテンツを同時に出力するイベントを検知する。これにより、コンテンツの再生においてダッキング処理を行なうことができる。
According to this embodiment, the following effects can be obtained.
(1) In the present embodiment, the file includes a description for realizing the ducking management means 213. The ducking management means 213 detects an event that outputs a plurality of contents at the same time in the reproduction of the file. As a result, ducking processing can be performed in the reproduction of the content.
(2)本実施形態では、ファイルに、主副特定手段214、出力条件設定手段215を実現させるための記述を含める。この主副特定手段214は、ファイル再生に利用する複数のコンテンツについて、主コンテンツ又は副コンテンツを特定する。また、出力条件設定手段215は、主コンテンツ、副コンテンツが同時に出力される場合の出力条件を設定する。これにより、予め出力条件に応じた主コンテンツ及び副コンテンツを設定したコンテンツ素材を用意する必要はなく、効率的にダッキング処理を行なうことができる。従って、コンテンツの出力状態や再生時間が再生時に決まるアプリケーションにおいても、コンテンツ素材を加工することなく、ダッキングを行なうことができる。 (2) In the present embodiment, the file includes a description for realizing the main / sub-identifying means 214 and the output condition setting means 215. The main / sub-identifying means 214 identifies the main content or the sub-content for a plurality of contents used for file reproduction. Further, the output condition setting means 215 sets the output condition when the main content and the sub content are output at the same time. As a result, it is not necessary to prepare a content material in which the main content and the sub-content are set in advance according to the output conditions, and the ducking process can be performed efficiently. Therefore, even in an application in which the output state and playback time of the content are determined at the time of playback, ducking can be performed without processing the content material.
<第2の実施形態>
次に、図5に従って、出力制御プログラムの第2の実施形態を説明する。第1の実施形態では、ダッキング処理において、予め設定された出力条件を用いる。第2の実施形態においては、ダッキング処理において、ファイル(コンテンツ)の再生環境に応じて出力条件を決定する構成であり、同様の部分については説明を省略する。
<Second embodiment>
Next, a second embodiment of the output control program will be described with reference to FIG. In the first embodiment, preset output conditions are used in the ducking process. In the second embodiment, in the ducking process, the output conditions are determined according to the playback environment of the file (content), and the description of the same parts will be omitted.
この場合、出力制御プログラムによって機能させる出力条件設定手段215において、再生環境情報を特定する。例えば、クライアント端末20に設けられたセンサ(マイクやCCD等)を用いて、再生環境情報として周囲環境情報を取得する。この周囲環境情報は、例えば、クライアント端末20が利用されている場所の騒音レベルや明るさに関する情報である。そして、出力条件設定手段215は、周囲環境情報に対応して出力条件を決定するための出力条件決定テーブルを保持させておく。この出力条件決定テーブルには、例えば、騒音レベルに応じた出力条件(例えば、主副コンテンツの音量)が記録されている。また、明るさレベルに応じた出力条件(例えば、主副コンテンツの明度やコントラスト)が記録されている。
In this case, the output condition setting means 215 operated by the output control program specifies the reproduction environment information. For example, the surrounding environment information is acquired as the reproduction environment information by using a sensor (microphone, CCD, etc.) provided in the
次に、図5を用いて、本実施形態におけるダッキング処理を説明する。
ここでは、クライアント端末20の制御部21は、ステップS2−1,S2−2と同様に、イベント待機処理(ステップS3−1)、ダッキングが必要かどうかについての判定処理(ステップS3−2)を実行する。
Next, the ducking process in the present embodiment will be described with reference to FIG.
Here, the
ダッキングが必要でないと判定した場合(ステップS3−2において「NO」の場合)、イベント待機処理(ステップS3−1)を継続する。
一方、ダッキングが必要と判定した場合(ステップS3−2において「YES」の場合)、クライアント端末20の制御部21は、ステップS2−3と同様に、主副コンテンツの特定処理を実行する(ステップS3−3)。
When it is determined that ducking is not necessary (when "NO" in step S3-2), the event waiting process (step S3-1) is continued.
On the other hand, when it is determined that ducking is necessary (when "YES" in step S3-2), the
次に、クライアント端末20の制御部21は、再生環境の特定処理を実行する(ステップS3−4)。具体的には、制御部21のブラウザ210は、出力条件設定手段215により、コンテンツを再生するクライアント端末20の再生環境に関する情報を取得する。
Next, the
次に、クライアント端末20の制御部21は、再生環境に応じて、主副コンテンツの出力条件の変更処理を実行する(ステップS3−5)。具体的には、制御部21のブラウザ210は、出力条件設定手段215により、出力条件決定テーブルを用いて、再生環境に対応した出力条件を特定する。そして、出力処理手段212における主副コンテンツの再生の出力条件に変更する。
Next, the
次に、クライアント端末20の制御部21は、ステップS2−5と同様に、ダッキング終了かどうかについての判定処理を実行する(ステップS3−6)。ダッキング終了でないと判定した場合(ステップS3−6において「NO」の場合)、クライアント端末20の制御部21は、変更された出力条件を維持する。
Next, the
一方、ダッキング終了と判定した場合(ステップS3−6において「YES」の場合)、ステップS2−6と同様に、クライアント端末20の制御部21は、出力条件を元に戻す処理を実行する(ステップS3−7)。
On the other hand, when it is determined that the ducking is completed (when "YES" in step S3-6), the
本実施形態では、図3に示すオブジェクト「AudioScene」において、記述505,506において再生環境に応じて音量を調整する。このために、オブジェクト「AudioScene」において、再生環境に関する情報を取得するための記述を含める。そして、記述505において、再生環境情報を変数とする小音量決定関数を用いて、再生環境に応じた小さい音量(出力条件)を戻り値として返す。また、記述506では、再生環境情報を変数とする大音量決定関数を用いて、再生環境に応じた大きな音量(出力条件)を戻り値として返す。
In the present embodiment, in the object "Audio Scene" shown in FIG. 3, the volume is adjusted according to the playback environment in the
本実施形態によれば、以下のような効果を得ることができる。
(3)本実施形態では、クライアント端末20の制御部21は、再生環境に応じて主副コンテンツの出力条件の変更処理を実行する(ステップS3−5)。これにより、再生環境に応じたダッキングを行なうことができる。
According to this embodiment, the following effects can be obtained.
(3) In the present embodiment, the
なお、上記実施形態は以下のように変更してもよい。
・上記各実施形態では、例えば、オーディオコンテンツを用いたが、コンテンツはオーディオに限定されるものではない。静止画コンテンツや動画コンテンツ等の多様なメディアコンテンツを用いることも可能である。この場合には、オブジェクト「AudioScene」に代えて、例えば、オブジェクト「MediaScene」を用いる。そして、このオブジェクトでは、画像の明度やコントラスト等の出力条件を変更する関数(例えば、「setOutputLevel」)を実行する。例えば、ダッキング処理において、主コンテンツを明るくしたり、コントラストを強調したりする。
The above embodiment may be changed as follows.
-In each of the above embodiments, for example, audio content is used, but the content is not limited to audio. It is also possible to use various media contents such as still image contents and video contents. In this case, for example, the object "MediaScene" is used instead of the object "AudioScene". Then, this object executes a function (for example, "setOutputLevel") that changes the output conditions such as the brightness and contrast of the image. For example, in the ducking process, the main content is brightened or the contrast is emphasized.
・上記各実施形態では、ファイルには、ダッキング管理手段213、主副特定手段214、出力条件設定手段215を実現するための記述を含める。この記述は、ファイル内に含める場合に限定されるものではない。ファイル内に取得先を設定しておき、この取得先から記述を取得するようにしてもよい。 -In each of the above embodiments, the file includes a description for realizing the ducking management means 213, the main / sub-identifying means 214, and the output condition setting means 215. This description is not limited to inclusion in the file. The acquisition destination may be set in the file, and the description may be acquired from this acquisition destination.
・上記各実施形態では、ファイルには、各コンテンツにおいて、主コンテンツ又は副コンテンツのいずれかを特定するための主副設定情報を含める。この場合、主コンテンツ又は副コンテンツは固定的である場合に限定されず、状況に応じて主コンテンツ、副コンテンツを変更するようにしてもよい。この場合には、主副設定情報において、主コンテンツとなる主副決定条件を設定しておく。この主副決定条件には、状況に関連付けて、主コンテンツ、副コンテンツを決めるロジックを設定しておく。そして、イベントを検知した場合、主副決定条件を用いて、主コンテンツ、副コンテンツを決定する。これにより、ファイルの再生時に主副の関係を決定することができる。 -In each of the above embodiments, the file includes main / sub setting information for specifying either the main content or the sub content in each content. In this case, the main content or the sub-content is not limited to the fixed case, and the main content or the sub-content may be changed depending on the situation. In this case, the main / sub determination condition that is the main content is set in the main / sub setting information. In this main / sub-determination condition, the logic for determining the main content and the sub-content is set in relation to the situation. Then, when an event is detected, the main content and the sub-content are determined using the main / sub-determination condition. Thereby, the relationship between the main and the sub can be determined when the file is played back.
・上記第2の実施形態では、出力条件設定手段215において、再生環境情報を特定する。例えば、クライアント端末20に設けられたセンサ(マイクやCCD等)を用いて周囲環境情報(再生環境情報)を取得する。再生環境情報は、周囲環境情報に限定されるものではない。例えば、イベントが発生したファイル再生シーン(シナリオ上の場面)を、再生環境情報として特定してもよい。この場合には、出力条件設定関数に、イベントが発生したシーン情報に関連付けて出力条件を設定しておく。
-In the second embodiment, the output condition setting means 215 specifies the reproduction environment information. For example, the surrounding environment information (reproduction environment information) is acquired by using a sensor (microphone, CCD, etc.) provided in the
また、クライアント端末20に実装されたハードウェア構成やソフトウェア構成の構成情報を再生環境情報として利用することも可能である。この場合には、出力条件設定関数に、ハードウェア構成やソフトウェア構成の構成情報に関連付けて出力条件を設定しておく。そして、出力条件設定手段215は、ハードウェア構成やソフトウェア構成の構成情報を取得し、この構成情報に基づいて出力条件を算出する。
It is also possible to use the configuration information of the hardware configuration and the software configuration mounted on the
更に、コンテンツの再生頻度を再生環境情報として利用することも可能である。この場合には、出力条件設定手段215に、コンテンツ毎に再生回数を記録しておく。そして、出力条件設定関数に、再生回数に関連付けて出力条件を設定しておく。例えば、再生回数が多くなった場合には、このコンテンツの音量を下げたり、コントラストを弱めたりする等、出力レベルを下げる。これにより、繰り返しが多いコンテンツを調整することができる。 Further, it is also possible to use the reproduction frequency of the content as the reproduction environment information. In this case, the output condition setting means 215 records the number of times of reproduction for each content. Then, the output condition is set in the output condition setting function in association with the number of playbacks. For example, when the number of playbacks increases, the output level is lowered by lowering the volume of this content or weakening the contrast. As a result, it is possible to adjust the content with many repetitions.
・上記第2の実施形態では、ダッキング終了でないと判定した場合(ステップS3−6において「NO」の場合)、クライアント端末20の制御部21は、変更された出力条件を維持する。これに代えて、ダッキング時の主副コンテンツの出力条件を、逐次変更するようにしてもよい。ここでは、ダッキング終了でないと判定した場合(ステップS3−6において「NO」の場合)、クライアント端末20の制御部21は、再生環境の特定処理(ステップS3−4)に戻る。これにより、出力条件を、時間経過に対して動的に変更することができる。
-In the second embodiment, when it is determined that the ducking is not completed (when "NO" in step S3-6), the
・上記各実施形態では、クライアント端末20において、出力制御プログラムを実行させることにより、制御部21を、ダッキング管理手段213、主副特定手段214、出力条件設定手段215として機能させる。ここで、出力制御プログラムを実行する環境は、クライアント端末20に限定されるものではない。例えば、コンテンツを出力するクライアント端末20に接続された管理サーバにおいて、出力制御プログラムを実行させてもよい。この場合には、管理サーバがクライアント端末20から、コンテンツの出力状況情報や再生環境情報を取得し、これらの情報を用いてコンテンツの出力条件を決定する。そして、クライアント端末20においては、この出力条件に応じて、コンテンツを出力する。
次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
〔1〕マークアップ言語で記述されたファイルに基づきウェブページを表示する出力制御装置の制御部に、当該ファイルに関連付けられた複数の音声データを再生させるプログラムであって、
前記制御部に、
前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定するための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて、主音声及び副音声を特定するステップと、
前記ファイルに関連付けられた複数の音声データを取得するステップと、
前記ファイルに含まれる出力条件に基づき、前記主音声の音声データの音量を前記副音声の音声データの音量よりも大きく設定するステップと、
前記主音声である音声データ及び前記副音声である音声データを、設定された音量で同時に再生するステップと、を実行させる出力制御プログラム。
〔2〕前記主音声である音声データ及び前記副音声である音声データを同時に再生するステップが終了した場合には、前記主音声の音声データの音量又は前記副音声の音声データの音量を元に戻すステップをさらに実行させる〔1〕に記載の出力制御プログラム。
〔3〕前記出力条件は、前記音声データの再生回数に応じて音量を調整することを含む〔1〕又は〔2〕に記載の出力制御プログラム。
〔4〕前記主副設定情報は、前記主音声及び前記副音声を固定的に定める情報を含む〔1〕〜〔3〕のいずれか1項に記載の出力制御プログラム。
〔5〕前記主副設定情報は、再生状況に応じて前記主音声及び前記副音声を決定するための主副決定条件を含む〔1〕〜〔3〕のいずれか1項に記載の出力制御プログラム。
〔6〕前記出力条件は、前記ウェブページを表示させる前記出力制御装置の周囲環境情報に基づいて音量を設定することを含む〔5〕に記載の出力制御プログラム。
〔7〕前記出力条件は、前記ウェブページを表示させる前記出力制御装置のハードウェア構成の構成情報に基づいて音量を設定することを含む〔6〕に記載の出力制御プログラム。
〔8〕前記出力条件は、前記ウェブページを表示させる前記出力制御装置のソフトウェア構成の構成情報に基づいて音量を設定することを含む〔6〕に記載の出力制御プログラム。
〔9〕前記主音声の音声データ及び前記副音声の音声データを同時に出力するシーンが終了していない場合には、前記出力条件を新たに設定し、当該出力条件に基づき前記主音声の音声データ及び前記副音声の音声データを再生する〔1〕〜〔8〕のいずれか1項に記載の出力制御プログラム。
〔10〕前記ファイルは、アプリケーションのシーンに対応するものであり、
前記主音声及び前記副音声を特定するステップは、前記ファイルに含まれる前記主副設定情報に基づき、前記アプリケーションに登場するキャラクタの音声及び環境音について、前記主音声及び前記副音声を特定するステップであり、
前記音声データの音量を設定するステップは、前記キャラクタの音声データの音量及び前記環境音の音声データの音量を設定するステップである〔1〕〜〔9〕のいずれか1項に記載の出力制御プログラム。
〔11〕マークアップ言語で記述されたファイルに基づきウェブページを表示する制御部が、当該ファイルに関連付けられた複数の音声データを再生させる出力制御装置であって、
前記制御部が、
前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定するための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて、主音声及び副音声を特定し、
前記ファイルに関連付けられた複数の音声データを取得し、
前記ファイルに含まれる出力条件に基づき、前記主音声の音声データの音量を前記副音声の音声データの音量よりも大きく設定し、
前記主音声である音声データ及び前記副音声である音声データを、設定された音量で同時に再生する出力制御装置。
〔12〕マークアップ言語で記述されたファイルに基づきウェブページを表示する出力制御装置の制御部が、当該ファイルに関連付けられた複数の音声データを再生させる方法であって、
前記制御部が、
前記ファイルに含まれる情報であって主音声及び副音声のいずれかであるかを特定するための主副設定情報に基づき、前記ファイルに関連付けられた複数の音声データについて、主音声及び副音声を特定するステップと、
前記ファイルに関連付けられた複数の音声データを取得するステップと、
前記ファイルに含まれる出力条件に基づき、前記主音声の音声データの音量を前記副音声の音声データの音量よりも大きく設定するステップと、
前記主音声である音声データ及び前記副音声である音声データを、設定された音量で同時に再生するステップと、を実行する出力制御方法。
In each of the above embodiments, the
Next, the technical idea that can be grasped from the above embodiment and another example will be added below.
[1] A program that causes the control unit of an output control device that displays a web page based on a file described in a markup language to play back a plurality of audio data associated with the file.
In the control unit
Based on the main / sub setting information for specifying whether the information is included in the file and is either the main voice or the sub voice, the main voice and the sub voice are set for a plurality of voice data associated with the file. Steps to identify and
Steps to acquire multiple audio data associated with the file, and
A step of setting the volume of the audio data of the main audio to be higher than the volume of the audio data of the sub audio based on the output conditions included in the file.
An output control program that executes a step of simultaneously reproducing the audio data that is the main audio and the audio data that is the sub audio at a set volume.
[2] When the step of simultaneously reproducing the audio data as the main audio and the audio data as the sub audio is completed, the volume of the audio data of the main audio or the volume of the audio data of the sub audio is used as the basis. The output control program according to [1], which further executes the return step.
[3] The output control program according to [1] or [2], wherein the output condition includes adjusting the volume according to the number of times the audio data is reproduced.
[4] The output control program according to any one of [1] to [3], wherein the main / sub setting information includes the main voice and information that fixedly defines the sub voice.
[5] The output control according to any one of [1] to [3], wherein the main / sub setting information includes the main voice and the main / sub determination condition for determining the main voice and the sub voice according to the reproduction situation. program.
[6] The output control program according to [5], wherein the output condition includes setting the volume based on the ambient environment information of the output control device for displaying the web page.
[7] The output control program according to [6], wherein the output condition includes setting the volume based on the configuration information of the hardware configuration of the output control device for displaying the web page.
[8] The output control program according to [6], wherein the output condition includes setting the volume based on the configuration information of the software configuration of the output control device for displaying the web page.
[9] If the scene in which the audio data of the main audio and the audio data of the sub audio are output at the same time is not completed, the output condition is newly set, and the audio data of the main audio is based on the output condition. The output control program according to any one of [1] to [8], which reproduces the audio data of the sub-audio.
[10] The file corresponds to the scene of the application.
The step of specifying the main voice and the sub voice is a step of specifying the main voice and the sub voice with respect to the voice and the environmental sound of the character appearing in the application based on the main / sub setting information included in the file. And
The output control according to any one of [1] to [9], wherein the step of setting the volume of the voice data is a step of setting the volume of the voice data of the character and the volume of the voice data of the environmental sound. program.
[11] A control unit that displays a web page based on a file described in a markup language is an output control device that reproduces a plurality of audio data associated with the file.
The control unit
Based on the main / sub setting information for specifying whether the information is included in the file and is either the main voice or the sub voice, the main voice and the sub voice are set for a plurality of voice data associated with the file. Identify and
Acquire multiple audio data associated with the file and
Based on the output conditions included in the file, the volume of the audio data of the main audio is set to be higher than the volume of the audio data of the sub audio.
An output control device that simultaneously reproduces the audio data that is the main audio and the audio data that is the sub audio at a set volume.
[12] A method in which a control unit of an output control device that displays a web page based on a file described in a markup language reproduces a plurality of audio data associated with the file.
The control unit
Based on the main / sub setting information for specifying whether the information is included in the file and is either the main voice or the sub voice, the main voice and the sub voice are set for a plurality of voice data associated with the file. Steps to identify and
Steps to acquire multiple audio data associated with the file, and
A step of setting the volume of the audio data of the main audio to be higher than the volume of the audio data of the sub audio based on the output conditions included in the file.
An output control method for executing a step of simultaneously reproducing the audio data which is the main audio and the audio data which is the sub audio at a set volume.
10…サーバ、12…ファイル記憶部、20…クライアント端末、21…制御部、22…端末記憶部、23…入出力部、211…ファイル取得手段、212…出力処理手段、213…ダッキング管理手段、214…主副特定手段、215…出力条件設定手段。 10 ... server, 12 ... file storage unit, 20 ... client terminal, 21 ... control unit, 22 ... terminal storage unit, 23 ... input / output unit, 211 ... file acquisition means, 212 ... output processing means, 213 ... ducking management means, 214 ... Main / sub-identifying means, 215 ... Output condition setting means.
Claims (8)
前記コンピュータ端末の制御部を、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定手段、
前記再生環境に関する情報を取得するための記述に基づいて再生環境を特定し、前記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記特定された再生環境に応じて設定する出力条件設定手段、
前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前記副コンテンツを出力する出力調整手段、として機能させることを特徴とする出力制御プログラム。 It functions as an execution means for playing back multiple contents contained in a web page on a computer terminal equipped with a browser that displays a web page based on a file written in a markup language and containing a description for acquiring information about the playback environment. It ’s a program that lets you
The control unit of the computer terminal
A main / sub-identifying means for specifying the main content and the sub-content for a plurality of contents to be output when the markup language constituting the web page acquired by the browser is played.
When the playback environment is specified based on the description for acquiring the information about the playback environment and the main content and the sub-content are output at the same time, the output method of the main content and the output method of the sub-content are determined. Output condition setting means for setting different output conditions according to the specified playback environment,
When an event that outputs the main content and the sub-content at the same time is detected in the markup language, the markup language is made to function as an output adjusting means for outputting the main content and the sub-content based on the output condition. Characterized output control program.
前記イベントが発生したシーン、
前記コンピュータ端末に実装されたハードウェア構成、
前記コンピュータ端末に実装されたソフトウェア構成、及び、
再生するコンテンツの再生頻度、の少なくとも1つを含む、請求項1に記載の出力制御プログラム。 The playback environment is
The scene where the event occurred,
The hardware configuration implemented in the computer terminal,
The software configuration implemented in the computer terminal and
The output control program according to claim 1, wherein the output control program includes at least one of the reproduction frequency of the content to be reproduced.
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定手段、
前記再生環境に関する情報を取得するための記述に基づいて再生環境を特定し、前記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記特定された再生環境に応じて設定する出力条件設定手段、
前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前記副コンテンツを出力する出力調整手段、を備えることを特徴とする情報処理装置。 An information processing device that is written in a markup language, has a browser that displays a web page based on a file containing a description for acquiring information about the playback environment, and reproduces a plurality of contents contained in the web page.
A main / sub-identifying means for specifying the main content and the sub-content for a plurality of contents to be output when the markup language constituting the web page acquired by the browser is played.
When the playback environment is specified based on the description for acquiring the information about the playback environment and the main content and the sub-content are output at the same time, the output method of the main content and the output method of the sub-content are determined. Output condition setting means for setting different output conditions according to the specified playback environment,
The markup language is characterized by comprising an output adjusting means for outputting the main content and the sub-content based on the output condition when an event for simultaneously outputting the main content and the sub-content is detected. Information processing device.
前記コンピュータ端末の制御部が、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ及び副コンテンツを特定する主副特定ステップ、
前記再生環境に関する情報を取得するための記述に基づいて再生環境を特定し、前記主コンテンツ及び前記副コンテンツが同時に出力される場合に、前記主コンテンツの出力方法と前記副コンテンツの出力方法とを異ならせる出力条件を、前記特定された再生環境に応じて設定する出力条件設定ステップ、
前記マークアップ言語において、前記主コンテンツ及び前記副コンテンツを同時に出力するイベントを検知した場合に、前記出力条件に基づいて、前記主コンテンツ及び前記副コンテンツを出力する出力調整ステップ、を実行することを特徴とする出力制御方法。 An output control method that plays back multiple contents contained in a web page on a computer terminal equipped with a browser that displays the web page based on a file that is written in markup language and contains a description for acquiring information about the playback environment. There,
The control unit of the computer terminal
A main / sub-specification step of specifying the main content and the sub-content for a plurality of contents to be output when the markup language constituting the web page acquired by the browser is played.
When the playback environment is specified based on the description for acquiring the information about the playback environment and the main content and the sub-content are output at the same time, the output method of the main content and the output method of the sub-content are determined. Output condition setting step, which sets different output conditions according to the specified playback environment,
When an event that outputs the main content and the sub-content at the same time is detected in the markup language, the output adjustment step of outputting the main content and the sub-content is executed based on the output condition. Characterized output control method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019202323A JP6896828B2 (en) | 2019-01-08 | 2019-11-07 | Output control program, information processing device and output control method |
JP2021095793A JP7162698B2 (en) | 2019-11-07 | 2021-06-08 | Output control program, information processing device, and output control method |
JP2022166990A JP2022191428A (en) | 2019-11-07 | 2022-10-18 | Output control program, information processing apparatus, and output control method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001024A JP6616531B2 (en) | 2019-01-08 | 2019-01-08 | Output control program, output control device, and output control method |
JP2019202323A JP6896828B2 (en) | 2019-01-08 | 2019-11-07 | Output control program, information processing device and output control method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019001024A Division JP6616531B2 (en) | 2019-01-08 | 2019-01-08 | Output control program, output control device, and output control method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021095793A Division JP7162698B2 (en) | 2019-11-07 | 2021-06-08 | Output control program, information processing device, and output control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020035479A JP2020035479A (en) | 2020-03-05 |
JP6896828B2 true JP6896828B2 (en) | 2021-06-30 |
Family
ID=69669162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019202323A Active JP6896828B2 (en) | 2019-01-08 | 2019-11-07 | Output control program, information processing device and output control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6896828B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8170230B1 (en) * | 2008-08-15 | 2012-05-01 | Adobe Systems Incorporated | Reducing audio masking |
US8740701B2 (en) * | 2009-06-15 | 2014-06-03 | Wms Gaming, Inc. | Controlling wagering game system audio |
-
2019
- 2019-11-07 JP JP2019202323A patent/JP6896828B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020035479A (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7653544B2 (en) | Method and apparatus for website navigation by the visually impaired | |
JP2007264792A (en) | Voice browser program | |
JP2011521383A (en) | System and method for real-time creation and modification of a video player for users with disabilities | |
JP2008293219A (en) | Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon | |
US20160217109A1 (en) | Navigable web page audio content | |
JP6466531B2 (en) | Output control program, output control device, and output control method | |
JP6896828B2 (en) | Output control program, information processing device and output control method | |
JP7162698B2 (en) | Output control program, information processing device, and output control method | |
JP6616531B2 (en) | Output control program, output control device, and output control method | |
JP2008242301A (en) | Presentation device, presentation method, and program | |
JP5345157B2 (en) | Log information display method and apparatus | |
KR20010008155A (en) | Method of advertisement using data free-caching on internet-broadcasting | |
JP2007011893A (en) | Browsing method and device for rss document, program and storage medium storing program | |
JP6193901B2 (en) | Output control program, output control device, and output control method | |
JP5902225B2 (en) | Output control program, output control device, and output control method | |
JP2004072530A (en) | Electronic equipment and program generation method | |
JP2005010992A (en) | Method for explaining and advertising web page using synthesized voice | |
CN111414495A (en) | Multimedia data acquisition method, device and computer readable storage medium | |
CN111045674A (en) | Interactive method and device of player | |
JP2020099014A (en) | Content processor, content processing system, method for processing content, and program | |
JP2001014211A (en) | Method and device for outputting data and recording medium recording processing program therefor | |
JP2002251338A (en) | Document display device having bookmark presenting function | |
JP6089315B2 (en) | TERMINAL DEVICE, PROGRAM, AND TERMINAL DEVICE CONTROL METHOD | |
US20230114651A1 (en) | Dynamic recorder for demonstrations of web-based software applications | |
JP6898575B2 (en) | Information processing device, control method and control program of information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200707 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200911 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6896828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |