JP5902225B2 - Output control program, output control device, and output control method - Google Patents

Output control program, output control device, and output control method Download PDF

Info

Publication number
JP5902225B2
JP5902225B2 JP2014080935A JP2014080935A JP5902225B2 JP 5902225 B2 JP5902225 B2 JP 5902225B2 JP 2014080935 A JP2014080935 A JP 2014080935A JP 2014080935 A JP2014080935 A JP 2014080935A JP 5902225 B2 JP5902225 B2 JP 5902225B2
Authority
JP
Japan
Prior art keywords
output
sub
content
main
output condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014080935A
Other languages
Japanese (ja)
Other versions
JP2015201125A (en
Inventor
空 宮崎
空 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2014080935A priority Critical patent/JP5902225B2/en
Publication of JP2015201125A publication Critical patent/JP2015201125A/en
Application granted granted Critical
Publication of JP5902225B2 publication Critical patent/JP5902225B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、クライアント端末において、複数のコンテンツの出力状態を調整する出力制御プログラム、出力制御装置及び出力制御方法に関する。   The present invention relates to an output control program, an output control apparatus, and an output control method for adjusting an output state of a plurality of contents in a client terminal.

スピーカ等を備えた音響装置において、再生される音としてBGM、台詞、効果音等さまざまなものがある。ここで、同時並列的に出力される音の種類に応じて、相対的な優先度があり、音量等を調整すべき場合もある。例えば、BGMが恒常的に出力されている状況下で、台詞が間欠的に出力される場合には、台詞を聴こえやすくするために、台詞の出力レベルに応じてBGMのレベルを下げるように調整するダッキング処理が行なわれる(特許文献1を参照)。   In an audio device including a speaker or the like, there are various sounds such as BGM, dialogue, and sound effects that are reproduced. Here, depending on the type of sound output in parallel, there is a relative priority, and the volume etc. may be adjusted. For example, in the situation where BGM is output constantly, if the line is output intermittently, the BGM level is adjusted to be lowered according to the line output level in order to make the line easy to hear. Ducking processing is performed (see Patent Document 1).

また、スマートフォン等のコンピュータ端末を利用するユーザに対して、各種コンテンツが提供されている。このようなコンテンツは、ウェブページにより提供される場合がある。このウェブページは、HTML(HyperText Markup Language)等のマークアップ言語で記述されている。更に、ウェブページにおいて、オーディオや動画などの、多様なメディアコンテンツを提供できる規格も開示されている(非特許文献1、2を参照)。この規格においては、メディア要素(<audio>要素、<video>要素)及びWeb Audio APIにより、メディアコンテンツを再生することができる。   Various contents are also provided to users who use computer terminals such as smartphones. Such content may be provided by a web page. This web page is described in a markup language such as HTML (HyperText Markup Language). Furthermore, standards that can provide various media contents such as audio and moving images on a web page are also disclosed (see Non-Patent Documents 1 and 2). In this standard, media content can be played back by media elements (<audio> element, <video> element) and Web Audio API.

特開2012−70137公報JP 2012-70137 A

The World Wide Web Consortium(W3C)、″HTML5 A vocabulary and associated APIs for HTML and XHTML W3C Candidate Recommendation 04 February 2014″、[online]、ホームページ、[平成26年3月20日検索]、インターネット<http://www.w3.org/TR/html5/embedded-content-0.html#media-elements>The World Wide Web Consortium (W3C), "HTML5 A vocabulary and associated APIs for HTML and XHTML W3C Candidate Recommendation 04 February 2014", [online] homepage, [Search March 20, 2014], Internet <http: / /www.w3.org/TR/html5/embedded-content-0.html#media-elements> The World Wide Web Consortium(W3C)、″Web Audio API W3C Working Draft 10 October 2013″、[online]、ホームページ、[平成26年3月20日検索]、インターネット<http://www.w3.org/TR/webaudio/>The World Wide Web Consortium (W3C), “Web Audio API W3C Working Draft 10 October 2013”, [online] homepage, [searched March 20, 2014], Internet <http://www.w3.org/ TR / webaudio / >

ウェブページにおいても、複数のコンテンツ(例えば、音声ファイル)を同時に再生することがある。例えば、ゲーム画面において、BGM(副音声)を出力しながら、ナレーション(主音声)を出力することがある。この場合、主音声が出力されている間は、副音声の音量を下げる。そして、主音声が終了した後に、副音声の音量を元に戻す処理が行なわれている。   Even on a web page, a plurality of contents (for example, audio files) may be reproduced simultaneously. For example, a narration (main audio) may be output while outputting BGM (sub audio) on a game screen. In this case, the volume of the sub sound is lowered while the main sound is being output. Then, after the main voice is finished, a process for restoring the volume of the sub voice is performed.

しかしながら、ゲームのように、音声内容が状況に応じて変化する場合には、最適な音声素材を作成することが困難であった。また、クライアント端末のブラウザを利用してコンテンツを出力する場合、再生環境に応じて音量が異なることがある。この場合、再生環境に応じて、音量を調整したコンテンツを準備することは煩雑であった。   However, when the audio contents change according to the situation as in a game, it is difficult to create an optimal audio material. In addition, when content is output using a browser of a client terminal, the volume may vary depending on the playback environment. In this case, it is cumbersome to prepare content whose volume is adjusted according to the playback environment.

本発明は、上述した問題に鑑みてなされたものであり、その目的は、クライアント端末において、複数のコンテンツを同じ場面において出力する場合に、コンテンツの出力状況を調整するための出力制御プログラム、出力制御装置及び出力制御方法を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to output an output control program for adjusting the output status of content when outputting a plurality of content in the same scene in a client terminal, and output A control device and an output control method are provided.

(1)上記課題を解決する出力制御プログラムは、シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって、前記コンピュータ端末の制御部を、前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段、前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発
生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段、前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段として機能させる。これにより、ウェブページにおいて、複数のコンテンツについてダッキングを行なうことができる。
(1) An output control program that solves the above problem executes a script language that operates on a markup language in a computer terminal having a browser that displays a web page described in the markup language including a scene on the scenario. A program that functions as an execution unit, wherein the control unit of the computer terminal determines a main content and a sub content for a plurality of contents to be output when reproducing a markup language that constitutes a web page acquired by the browser. In the script language that operates on the markup language , the event generates the volume as the output condition of the main content and the sub content at the time of ducking.
In the output condition setting means that is acquired according to the output condition associated with the generated scene information, and in the markup language, when the ducking event is detected, the main / sub-specification means The volume of the main content and sub-content is acquired using the output condition setting means, the output of the main content and sub-content is changed to the volume, and the volume is returned at the end of the event It functions as an output adjustment means. Thereby, it is possible to perform ducking for a plurality of contents in the web page.

(2)上記出力制御プログラムにおいて、前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末の周囲環境情報を取得し、前記周囲環境情報に基づいて出力条件を算出するための関数を保持していることが好ましい。これにより、周囲環境に応じて、ダッキングを行なうことができる。   (2) In the output control program, the output condition setting unit acquires a surrounding environment information of a computer terminal that displays the web page, and holds a function for calculating an output condition based on the surrounding environment information. It is preferable. Thereby, ducking can be performed according to the surrounding environment.

(3)上記出力制御プログラムにおいて、前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末のハードウェア構成の構成情報を取得し、前記構成情報に基づいて出力条件を算出するための関数を保持していることが好ましい。これにより、ハードウェア構成に応じて、ダッキングを行なうことができる。   (3) In the output control program, the output condition setting unit obtains a configuration information of a hardware configuration of a computer terminal that displays the web page, and calculates a function for calculating an output condition based on the configuration information. It is preferable to hold. Thus, ducking can be performed according to the hardware configuration.

(4)上記出力制御プログラムにおいて、前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末のソフトウェア構成の構成情報を取得し、前記構成情報に基づいて出力条件を算出するための関数を保持していることが好ましい。これにより、ソフトウェア構成に応じて、ダッキングを行なうことができる。   (4) In the output control program, the output condition setting means obtains configuration information of a software configuration of a computer terminal that displays the web page, and holds a function for calculating an output condition based on the configuration information It is preferable. Thus, ducking can be performed according to the software configuration.

(5)上記出力制御プログラムにおいて、前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末における各コンテンツの出力頻度を特定し、前記出力頻度に基づいて出力条件を算出するための関数を保持していることが好ましい。これにより、コンテンツの出力頻度に応じて、ダッキングを行なうことができる。   (5) In the output control program, the output condition setting means specifies a frequency of output of each content in a computer terminal that displays the web page, and holds a function for calculating an output condition based on the output frequency It is preferable. Thereby, ducking can be performed according to the output frequency of content.

本発明によれば、クライアント端末において、複数のコンテンツを同じ場面において出力する場合に、コンテンツの出力状況を効率的に調整することができる。   ADVANTAGE OF THE INVENTION According to this invention, when outputting a some content in the same scene in a client terminal, the output condition of a content can be adjusted efficiently.

本実施形態のシステム概略図。The system schematic of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態のソースコード例の一部の説明図。An explanatory view of a part of a source code example of the present embodiment. 本実施形態のソースコード例の一部の説明図。An explanatory view of a part of a source code example of the present embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment.

<第1の実施形態>
以下、図1、図2に従って、出力制御プログラムの一実施形態を説明する。
本実施形態では、図1に示すように、クライアント端末20が、サーバ10から取得したファイル(マークアップ言語ファイル)に基づいて、複数のコンテンツを再生する場合を想定する。
<First Embodiment>
Hereinafter, an embodiment of the output control program will be described with reference to FIGS.
In the present embodiment, as illustrated in FIG. 1, it is assumed that the client terminal 20 reproduces a plurality of contents based on a file (markup language file) acquired from the server 10.

ユーザが利用するクライアント端末20は、ネットワークを介してサーバ10に接続されている。このサーバ10は、ファイル記憶部12を備える。
ファイル記憶部12には、クライアント端末20に提供するファイルを記憶させておく。ここでは、マークアップ言語により記述されたファイルを記録しておく。このファイルには、後述するように、クライアント端末20において、各種手段を実現するための記述(出力制御プログラム)を含めておく。本実施形態では、後述するダッキング管理手段213、主副特定手段214、出力条件設定手段215を実現するための記述を含める。
A client terminal 20 used by a user is connected to the server 10 via a network. The server 10 includes a file storage unit 12.
The file storage unit 12 stores a file to be provided to the client terminal 20. Here, a file described in a markup language is recorded. As will be described later, this file includes descriptions (output control programs) for realizing various means in the client terminal 20. In this embodiment, descriptions for realizing a ducking management unit 213, a main / sub specification unit 214, and an output condition setting unit 215, which will be described later, are included.

更に、このファイルには、出力時に使用する複数のコンテンツに関する情報(コンテンツ情報)を含んでいる。コンテンツ情報は、オーディオや動画等のコンテンツの取得先に関する情報が含まれる。ここで、取得先は、このアイテムを利用する場合、提供可能なオブジェクトが格納されたアドレス情報(例えば、URL:Uniform Resource Locator)である。
更に、ファイルには、各コンテンツにおいて、主コンテンツ又は副コンテンツのいずれかを特定するための主副設定情報を含める。
Further, this file includes information (content information) regarding a plurality of contents used at the time of output. The content information includes information related to a content acquisition destination such as audio and video. Here, when using this item, the acquisition destination is address information (for example, URL: Uniform Resource Locator) in which an object that can be provided is stored.
Further, the file includes main / sub setting information for specifying either main content or sub content in each content.

クライアント端末20は、ファイルを閲覧するユーザが利用するコンピュータ(スマートフォン等の情報処理端末)であり、出力制御装置として機能する。このクライアント端末20は、CPU、メモリ(RAM及びROM)等からなる制御部21、端末記憶部22、入出力部23を備えている。   The client terminal 20 is a computer (information processing terminal such as a smartphone) used by a user who browses a file, and functions as an output control device. The client terminal 20 includes a control unit 21 including a CPU, a memory (RAM and ROM), a terminal storage unit 22, and an input / output unit 23.

端末記憶部22には、クライアント端末20において用いられる各種設定やプログラムが記録される。本実施形態では、マークアップ言語で記載されたファイルを表示するブラウザ(プログラム)が格納される。
入出力部23は、タッチパネルディスプレイ等により構成され、データの出力や入力を行なう。
Various settings and programs used in the client terminal 20 are recorded in the terminal storage unit 22. In the present embodiment, a browser (program) that displays a file written in a markup language is stored.
The input / output unit 23 is configured by a touch panel display or the like, and outputs and inputs data.

制御部21は、端末記憶部22に格納されたブラウザプログラムを実行することにより、ブラウザ210を起動させる。このブラウザ210は、ファイル取得手段211、出力処理手段212を備える。   The control unit 21 activates the browser 210 by executing the browser program stored in the terminal storage unit 22. The browser 210 includes a file acquisition unit 211 and an output processing unit 212.

ファイル取得手段211は、ファイル(マークアップ言語ファイル)を読み込む。
出力処理手段212は、マークアップ言語ファイルをウェブページとして、入出力部23に出力する。
The file acquisition unit 211 reads a file (markup language file).
The output processing means 212 outputs the markup language file to the input / output unit 23 as a web page.

更に、ブラウザ210は、このファイルに含まれる記述を実行する。この記述を実行することにより、制御部21は、ダッキング管理手段213、主副特定手段214、出力条件設定手段215として機能する。具体的には、ブラウザ210のファイル取得手段211によって、サーバ10のファイル記憶部12に格納されたJavaScript(登録商標)を取得す。そして、このJavaScript(登録商標)の記述に基づいて、制御部21が、このダッキング管理手段213、主副特定手段214、出力条件設定手段215を機能させる。 Further, the browser 210 executes the description included in this file. By executing this description, the control unit 21 functions as the ducking management unit 213, the main / sub specification unit 214, and the output condition setting unit 215. Specifically, the file obtaining unit 211 of the browser 210, get the JavaScript (registered trademark) that is stored in the file storage unit 12 of the server 10. Then, based on the description of JavaScript (registered trademark), the control unit 21 causes the ducking management means 213, the main / sub specification means 214, and the output condition setting means 215 to function.

ダッキング管理手段213は、ダッキング処理の必要性を検知する。
主副特定手段214は、ファイル再生に利用する複数のコンテンツについて、主コンテンツ又は副コンテンツを特定する。
The ducking management means 213 detects the necessity of ducking processing.
The main / sub specification unit 214 specifies main content or sub content for a plurality of contents used for file reproduction.

出力条件設定手段215は、主コンテンツ、副コンテンツが同時に出力される場合の出力条件を設定する。この出力条件設定手段215は、主コンテンツ、副コンテンツを同時に出力するときの主コンテンツ、副コンテンツの出力条件(出力レベル)に関する情報を保持させておく。例えば、オーディオに関するコンテンツの場合には、主コンテンツと副コンテンツとの音量比を大きくする設定に関する情報を保持させておく。これにより、副コンテンツに対して、主コンテンツを目立たせることができる。   The output condition setting unit 215 sets an output condition when main content and sub content are output simultaneously. The output condition setting means 215 holds information related to the output conditions (output levels) of the main content and sub-content when the main content and sub-content are output simultaneously. For example, in the case of content related to audio, information related to a setting for increasing the volume ratio between main content and sub-content is stored. Thereby, main content can be made conspicuous with respect to subcontent.

次に、図2を用いて、クライアント端末20において、ファイルに含まれるコンテンツを出力する場合の処理を説明する。
まず、クライアント端末20の制御部21は、ファイルの読込処理を実行する(ステップS1−1)。具体的には、入出力部23を介して、ブラウザ210に、出力希望のファイルのURLを入力する。この場合、ブラウザ210は、ファイル取得手段211により、サーバ10に対して、URLのコンテンツを要求する。そして、ブラウザ210は、サーバ10から、ファイルを取得する。ここでは、ファイルとして、マークアップ言語ファイルを取得する場合を想定する。このファイルには、ダッキング管理手段213、主副特定手段214、出力条件設定手段215を実現するための記述が含まれる。更に、このファイルには、出力時に使用するコンテンツ(例えば、オーディオ)に関する情報が含まれている。
Next, with reference to FIG. 2, processing when the client terminal 20 outputs content included in a file will be described.
First, the control unit 21 of the client terminal 20 executes a file reading process (step S1-1). Specifically, the URL of the file to be output is input to the browser 210 via the input / output unit 23. In this case, the browser 210 requests the content of the URL from the server 10 by the file acquisition unit 211. Then, the browser 210 acquires a file from the server 10. Here, it is assumed that a markup language file is acquired as a file. This file includes descriptions for realizing the ducking management means 213, the main / sub-specification means 214, and the output condition setting means 215. Further, this file includes information on content (for example, audio) used at the time of output.

次に、クライアント端末20の制御部21は、ファイルの再生処理を実行する(ステップS1−2)。具体的には、制御部21のブラウザ210の出力処理手段は、サーバ10から取得したファイルを出力する。ここで、ファイルに含まれる単独のコンテンツを出力する場合には、そのまま再生する。   Next, the control unit 21 of the client terminal 20 executes a file reproduction process (step S1-2). Specifically, the output processing means of the browser 210 of the control unit 21 outputs a file acquired from the server 10. Here, when outputting a single content included in the file, it is reproduced as it is.

この場合、クライアント端末20の制御部21は、ダッキング処理を実行する。
このダッキング処理においては、まず、クライアント端末20の制御部21は、イベント待機処理を実行する(ステップS2−1)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213により、複数のコンテンツが同時に出力されるイベントを待機する。
In this case, the control unit 21 of the client terminal 20 executes a ducking process.
In this ducking process, first, the control unit 21 of the client terminal 20 executes an event standby process (step S2-1). Specifically, the browser 210 of the control unit 21 waits for an event in which a plurality of contents are simultaneously output by the ducking management unit 213.

複数のコンテンツが同時に出力されるイベントを検知した場合、クライアント端末20の制御部21は、ダッキングが必要かどうかについての判定処理を実行する(ステップS2−2)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213は、ファイルに含まれる複数のコンテンツに対して、主副設定情報の有無を確認する。そして、主副設定情報が含まれる場合には、ダッキングが必要と判定する。   When detecting an event in which a plurality of contents are output at the same time, the control unit 21 of the client terminal 20 executes a determination process as to whether or not ducking is necessary (step S2-2). Specifically, in the browser 210 of the control unit 21, the ducking management unit 213 confirms the presence / absence of main / sub setting information for a plurality of contents included in the file. If main / sub setting information is included, it is determined that ducking is necessary.

ダッキングが必要でないと判定した場合(ステップS2−2において「NO」の場合)、イベント待機処理(ステップS2−1)を継続する。
一方、ダッキングが必要と判定した場合(ステップS2−2において「YES」の場合)、クライアント端末20の制御部21は、主副コンテンツの特定処理を実行する(ステップS2−3)。具体的には、制御部21のブラウザ210は、主副特定手段214により、ファイルに含まれる主副設定情報に基づいて、主コンテンツを特定する。
If it is determined that ducking is not necessary (“NO” in step S2-2), the event standby process (step S2-1) is continued.
On the other hand, when it is determined that ducking is necessary (in the case of “YES” in step S2-2), the control unit 21 of the client terminal 20 executes a main / sub content specifying process (step S2-3). Specifically, the browser 210 of the control unit 21 uses the main / sub specifying unit 214 to specify the main content based on the main / sub setting information included in the file.

次に、クライアント端末20の制御部21は、主副コンテンツの出力条件の変更処理を実行する(ステップS2−4)。具体的には、制御部21のブラウザ210は、出力条件設定手段215により、予め設定された出力条件を取得し、この出力条件に変更する。例えば、オーディオコンテンツの場合、主コンテンツの音量を上げ、副コンテンツの音量を下げる出力条件に変更する。   Next, the control unit 21 of the client terminal 20 executes a process for changing the output condition of the main / sub content (step S2-4). Specifically, the browser 210 of the control unit 21 acquires a preset output condition by the output condition setting means 215 and changes to this output condition. For example, in the case of audio content, the output condition is changed to increase the volume of the main content and decrease the volume of the sub-content.

次に、クライアント端末20の制御部21は、ダッキング終了かどうかについての判定処理を実行する(ステップS2−5)。具体的には、制御部21のブラウザ210は、ダッキング管理手段213により、複数のコンテンツが同時に出力されるイベントの終了を待機する。   Next, the control part 21 of the client terminal 20 performs the determination process about whether it is the end of ducking (step S2-5). Specifically, the browser 210 of the control unit 21 waits for the end of an event in which a plurality of contents are simultaneously output by the ducking management unit 213.

ダッキング終了でないと判定した場合(ステップS2−5において「NO」の場合)、変更された出力条件を維持する。
一方、ダッキング終了と判定した場合(ステップS2−5において「YES」の場合)、クライアント端末20の制御部21は、出力条件を元に戻す処理を実行する(ステップS2−6)。具体的には、制御部21のブラウザ210は、出力条件設定手段215は、変更した出力条件を元に戻す。例えば、オーディオコンテンツにおいて、下げた音量を元の音量に戻すように上げる。
If it is determined that the ducking is not completed ("NO" in step S2-5), the changed output condition is maintained.
On the other hand, when it is determined that the ducking is finished (in the case of “YES” in step S2-5), the control unit 21 of the client terminal 20 executes a process for restoring the output condition (step S2-6). Specifically, in the browser 210 of the control unit 21, the output condition setting unit 215 restores the changed output condition. For example, in the audio content, the lowered volume is raised to return to the original volume.

次に、図3、図4を用いて、クライアント端末20に対して、ファイル(マークアップ言語ファイル)に含めて提供するコード(プログラム)の一例を説明する。ここでは、JavaScript(登録商標)を用いて記述されたコードを提供する場合を想定する。このコード例では、オーディオコンテンツにおいてダッキングを行なう場合を想定する。以下、このコードを、2つの第1パート500(図3)、第2パート510(図4)に分けて説明する。   Next, an example of a code (program) provided in the file (markup language file) to the client terminal 20 will be described with reference to FIGS. Here, it is assumed that a code written using JavaScript (registered trademark) is provided. In this code example, it is assumed that audio content is ducked. Hereinafter, this code will be described by dividing it into two first parts 500 (FIG. 3) and second parts 510 (FIG. 4).

図3に示す第1パート500においては、記述501〜507を含む。
記述501では、オブジェクト「AudioScene」に基づいて、オブジェクト「scene」を生成する。
記述502では、オブジェクト「scene」において、シーンにおいて、環境音(「EnvironmentSound-1」,「EnvironmentSound-2」)とキャラクターの音声(「Speech」)とを追加する。
記述503では、環境音を再生する。
記述504では、キャラクターの音声を再生する。なお、キャラクターの音声を再生する場合には、後述するようにダッキングを行なう。
記述505では、小さい音量(出力条件)を戻り値として返す小音量決定関数が設定され、記述506では、大きな音量(出力条件)を戻り値として返す大音量決定関数が設定される。
記述507では、記述502において、シーンに音を追加する関数が設定される。
The first part 500 shown in FIG. 3 includes descriptions 501 to 507.
In the description 501, the object “scene” is generated based on the object “AudioScene”.
In the description 502, an environmental sound (“EnvironmentSound-1”, “EnvironmentSound-2”) and a character voice (“Speech”) are added to the object “scene” in the scene.
In the description 503, the environmental sound is reproduced.
In the description 504, the voice of the character is reproduced. In the case of reproducing the voice of the character, ducking is performed as will be described later.
The description 505 sets a small volume determination function that returns a small volume (output condition) as a return value, and the description 506 sets a large volume determination function that returns a large volume (output condition) as a return value.
In the description 507, a function for adding sound to the scene in the description 502 is set.

図4に示す第2パート510においては、ダッキングのための記述511〜515を含む。
記述511では、プライマリの音(主音声)を決める。ここでは、主音声としてキャラクターの音声(「Speech」)を用いる。
記述512では、記述502に基づいて、シーンに含まれるすべての音を操作する。
記述513では、プライマリの音(主音声)を取得した場合には、主音声の長さに応じて、大きな音量を用いて、この音声を再生する。
記述514では、プライマリの音(主音声)の再生が終わったときにセカンダリ(副音声)の音量を元に戻す。
一方、記述515では、プライマリ以外の音、すなわちセカンダリの音(副音声)については、小さな音量を用いて再生する。
The second part 510 shown in FIG. 4 includes descriptions 511 to 515 for ducking.
In the description 511, the primary sound (main voice) is determined. Here, the voice of the character (“Speech”) is used as the main voice.
In the description 512, all sounds included in the scene are operated based on the description 502.
In the description 513, when the primary sound (main sound) is acquired, this sound is reproduced using a large volume according to the length of the main sound.
In the description 514, the volume of the secondary (sub audio) is restored when the reproduction of the primary sound (main audio) is finished.
On the other hand, in the description 515, the sound other than the primary, that is, the secondary sound (sub sound) is reproduced with a small volume.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、ファイルに、ダッキング管理手段213を実現させるための記述を含める。ダッキング管理手段213は、ファイルの再生において、複数のコンテンツを同時に出力するイベントを検知する。これにより、コンテンツの再生においてダッキング処理を行なうことができる。
According to this embodiment, the following effects can be obtained.
(1) In this embodiment, a description for realizing the ducking management means 213 is included in the file. The ducking management unit 213 detects an event of simultaneously outputting a plurality of contents during file reproduction. Thereby, the ducking process can be performed in the reproduction of the content.

(2)本実施形態では、ファイルに、主副特定手段214、出力条件設定手段215を実現させるための記述を含める。この主副特定手段214は、ファイル再生に利用する複数のコンテンツについて、主コンテンツ又は副コンテンツを特定する。また、出力条件設定手段215は、主コンテンツ、副コンテンツが同時に出力される場合の出力条件を設定する。これにより、予め出力条件に応じた主コンテンツ及び副コンテンツを設定したコンテンツ素材を用意する必要はなく、効率的にダッキング処理を行なうことができる。従って、コンテンツの出力状態や再生時間が再生時に決まるアプリケーションにおいても、コンテンツ素材を加工することなく、ダッキングを行なうことができる。   (2) In this embodiment, a description for realizing the main / sub specification unit 214 and the output condition setting unit 215 is included in the file. The main / sub specification unit 214 specifies main content or sub content for a plurality of contents used for file reproduction. The output condition setting unit 215 sets an output condition when the main content and the sub content are output simultaneously. Accordingly, it is not necessary to prepare content material in which main content and sub content according to output conditions are set in advance, and ducking processing can be performed efficiently. Therefore, even in an application in which the content output state and playback time are determined at the time of playback, ducking can be performed without processing the content material.

<第2の実施形態>
次に、図5に従って、出力制御プログラムの第2の実施形態を説明する。第1の実施形態では、ダッキング処理において、予め設定された出力条件を用いる。第2の実施形態においては、ダッキング処理において、ファイル(コンテンツ)の再生環境に応じて出力条件を決定する構成であり、同様の部分については説明を省略する。
<Second Embodiment>
Next, a second embodiment of the output control program will be described with reference to FIG. In the first embodiment, preset output conditions are used in the ducking process. In the second embodiment, in the ducking process, the output condition is determined according to the reproduction environment of the file (content), and the description of the same part is omitted.

この場合、出力制御プログラムによって機能させる出力条件設定手段215において、再生環境情報を特定する。例えば、クライアント端末20に設けられたセンサ(マイクやCCD等)を用いて、再生環境情報として周囲環境情報を取得する。この周囲環境情報は、例えば、クライアント端末20が利用されている場所の騒音レベルや明るさに関する情報である。そして、出力条件設定手段215は、周囲環境情報に対応して出力条件を決定するための出力条件決定テーブルを保持させておく。この出力条件決定テーブルには、例えば、騒音レベルに応じた出力条件(例えば、主副コンテンツの音量)が記録されている。また、明るさレベルに応じた出力条件(例えば、主副コンテンツの明度やコントラスト)が記録されている。   In this case, the reproduction condition information is specified by the output condition setting means 215 that is operated by the output control program. For example, ambient environment information is acquired as reproduction environment information using a sensor (such as a microphone or a CCD) provided in the client terminal 20. This ambient environment information is, for example, information regarding the noise level and brightness of the place where the client terminal 20 is used. The output condition setting means 215 holds an output condition determination table for determining an output condition corresponding to the ambient environment information. In this output condition determination table, for example, an output condition (for example, the volume of main / sub content) corresponding to the noise level is recorded. In addition, output conditions (for example, brightness and contrast of main and sub contents) corresponding to the brightness level are recorded.

次に、図5を用いて、本実施形態におけるダッキング処理を説明する。
ここでは、クライアント端末20の制御部21は、ステップS2−1,S2−2と同様に、イベント待機処理(ステップS3−1)、ダッキングが必要かどうかについての判定処理(ステップS3−2)を実行する。
Next, the ducking process in the present embodiment will be described with reference to FIG.
Here, similarly to steps S2-1 and S2-2, the control unit 21 of the client terminal 20 performs an event standby process (step S3-1) and a determination process (step S3-2) as to whether or not ducking is necessary. Run.

ダッキングが必要でないと判定した場合(ステップS3−2において「NO」の場合)、イベント待機処理(ステップS3−1)を継続する。
一方、ダッキングが必要と判定した場合(ステップS3−2において「YES」の場合)、クライアント端末20の制御部21は、ステップS2−3と同様に、主副コンテンツの特定処理を実行する(ステップS3−3)。
If it is determined that ducking is not necessary (“NO” in step S3-2), the event standby process (step S3-1) is continued.
On the other hand, when it is determined that ducking is necessary (in the case of “YES” in step S3-2), the control unit 21 of the client terminal 20 executes the main / sub content specifying process as in step S2-3 (step S2-3). S3-3).

次に、クライアント端末20の制御部21は、再生環境の特定処理を実行する(ステップS3−4)。具体的には、制御部21のブラウザ210は、出力条件設定手段215により、コンテンツを再生するクライアント端末20の再生環境に関する情報を取得する。   Next, the control unit 21 of the client terminal 20 executes a reproduction environment specifying process (step S3-4). Specifically, the browser 210 of the control unit 21 uses the output condition setting unit 215 to acquire information related to the reproduction environment of the client terminal 20 that reproduces the content.

次に、クライアント端末20の制御部21は、再生環境に応じて、主副コンテンツの出力条件の変更処理を実行する(ステップS3−5)。具体的には、制御部21のブラウザ210は、出力条件設定手段215により、出力条件決定テーブルを用いて、再生環境に対応した出力条件を特定する。そして、出力処理手段212における主副コンテンツの再生の出力条件に変更する。   Next, the control unit 21 of the client terminal 20 executes processing for changing the output condition of the main / sub content according to the reproduction environment (step S3-5). Specifically, the browser 210 of the control unit 21 uses the output condition setting unit 215 to specify an output condition corresponding to the reproduction environment using the output condition determination table. Then, the output processing unit 212 changes the output condition to the main / sub content reproduction.

次に、クライアント端末20の制御部21は、ステップS2−5と同様に、ダッキング終了かどうかについての判定処理を実行する(ステップS3−6)。ダッキング終了でないと判定した場合(ステップS3−6において「NO」の場合)、クライアント端末20の制御部21は、変更された出力条件を維持する。   Next, the control part 21 of the client terminal 20 performs the determination process about whether it is the end of ducking similarly to step S2-5 (step S3-6). When it is determined that the ducking is not finished (in the case of “NO” in step S3-6), the control unit 21 of the client terminal 20 maintains the changed output condition.

一方、ダッキング終了と判定した場合(ステップS3−6において「YES」の場合)、ステップS2−6と同様に、クライアント端末20の制御部21は、出力条件を元に戻す処理を実行する(ステップS3−7)。   On the other hand, when it is determined that the ducking is finished (in the case of “YES” in step S3-6), the control unit 21 of the client terminal 20 executes a process for returning the output condition as in step S2-6 (step S2-6). S3-7).

本実施形態では、図3に示すオブジェクト「AudioScene」において、記述505,506において再生環境に応じて音量を調整する。このために、オブジェクト「AudioScene」において、再生環境に関する情報を取得するための記述を含める。そして、記述505において、再生環境情報を変数とする小音量決定関数を用いて、再生環境に応じた小さい音量(出力条件)を戻り値として返す。また、記述506では、再生環境情報を変数とする大音量決定関数を用いて、再生環境に応じた大きな音量(出力条件)を戻り値として返す。   In the present embodiment, the volume of the object “AudioScene” shown in FIG. 3 is adjusted according to the playback environment in the descriptions 505 and 506. For this purpose, the object “AudioScene” includes a description for acquiring information related to the reproduction environment. Then, in the description 505, a small volume (output condition) corresponding to the reproduction environment is returned as a return value using a small volume determination function using the reproduction environment information as a variable. Also, in the description 506, a large volume (output condition) corresponding to the reproduction environment is returned as a return value using a large volume determination function using the reproduction environment information as a variable.

本実施形態によれば、以下のような効果を得ることができる。
(3)本実施形態では、クライアント端末20の制御部21は、再生環境に応じて主副コンテンツの出力条件の変更処理を実行する(ステップS3−5)。これにより、再生環境に応じたダッキングを行なうことができる。
According to this embodiment, the following effects can be obtained.
(3) In the present embodiment, the control unit 21 of the client terminal 20 executes processing for changing the output condition of the main / sub content according to the reproduction environment (step S3-5). Thereby, ducking according to the reproduction environment can be performed.

なお、上記実施形態は以下のように変更してもよい。
・上記各実施形態では、例えば、オーディオコンテンツを用いたが、コンテンツはオーディオに限定されるものではない。静止画コンテンツや動画コンテンツ等の多様なメディアコンテンツを用いることも可能である。この場合には、オブジェクト「AudioScene」に代えて、例えば、オブジェクト「MediaScene」を用いる。そして、このオブジェクトでは、画像の明度やコントラスト等の出力条件を変更する関数(例えば、「setOutputLevel」)を実行する。例えば、ダッキング処理において、主コンテンツを明るくしたり、コントラストを強調したりする。
In addition, you may change the said embodiment as follows.
In each of the above embodiments, for example, audio content is used, but the content is not limited to audio. It is also possible to use various media contents such as still picture contents and moving picture contents. In this case, for example, the object “MediaScene” is used instead of the object “AudioScene”. In this object, a function (for example, “setOutputLevel”) for changing output conditions such as brightness and contrast of an image is executed. For example, in the ducking process, the main content is brightened or the contrast is enhanced.

・上記各実施形態では、ファイルには、ダッキング管理手段213、主副特定手段214、出力条件設定手段215を実現するための記述を含める。この記述は、ファイル内に含める場合に限定されるものではない。ファイル内に取得先を設定しておき、この取得先から記述を取得するようにしてもよい。   In each of the above embodiments, the file includes a description for realizing the ducking management unit 213, the main / sub specification unit 214, and the output condition setting unit 215. This description is not limited to being included in the file. An acquisition destination may be set in the file, and a description may be acquired from the acquisition destination.

・上記各実施形態では、ファイルには、各コンテンツにおいて、主コンテンツ又は副コンテンツのいずれかを特定するための主副設定情報を含める。この場合、主コンテンツ又は副コンテンツは固定的である場合に限定されず、状況に応じて主コンテンツ、副コンテンツを変更するようにしてもよい。この場合には、主副設定情報において、主コンテンツとなる主副決定条件を設定しておく。この主副決定条件には、状況に関連付けて、主コンテンツ、副コンテンツを決めるロジックを設定しておく。そして、イベントを検知した場合、主副決定条件を用いて、主コンテンツ、副コンテンツを決定する。これにより、ファイルの再生時に主副の関係を決定することができる。   In each of the above embodiments, the file includes main / sub setting information for specifying either main content or sub content in each content. In this case, the main content or sub-content is not limited to being fixed, and the main content and sub-content may be changed according to the situation. In this case, main / sub determination conditions for main contents are set in the main / sub setting information. In this main / sub determination condition, a logic for determining main contents and sub contents is set in association with the situation. When an event is detected, main contents and sub contents are determined using main / sub determination conditions. Thereby, the main-sub relationship can be determined at the time of file reproduction.

・上記第2の実施形態では、出力条件設定手段215において、再生環境情報を特定する。例えば、クライアント端末20に設けられたセンサ(マイクやCCD等)を用いて周囲環境情報(再生環境情報)を取得する。再生環境情報は、周囲環境情報に限定されるものではない。例えば、イベントが発生したファイル再生シーン(シナリオ上の場面)を、再生環境情報として特定してもよい。この場合には、出力条件設定関数に、イベントが発生したシーン情報に関連付けて出力条件を設定しておく。   In the second embodiment, the output condition setting unit 215 specifies reproduction environment information. For example, ambient environment information (reproduction environment information) is acquired using a sensor (such as a microphone or a CCD) provided in the client terminal 20. The reproduction environment information is not limited to the surrounding environment information. For example, a file playback scene (scene on a scenario) where an event has occurred may be specified as playback environment information. In this case, an output condition is set in the output condition setting function in association with the scene information in which the event has occurred.

また、クライアント端末20に実装されたハードウェア構成やソフトウェア構成の構成情報を再生環境情報として利用することも可能である。この場合には、出力条件設定関数に、ハードウェア構成やソフトウェア構成の構成情報に関連付けて出力条件を設定しておく。そして、出力条件設定手段215は、ハードウェア構成やソフトウェア構成の構成情報を取得し、この構成情報に基づいて出力条件を算出する。   It is also possible to use the configuration information of the hardware configuration and software configuration installed in the client terminal 20 as the reproduction environment information. In this case, the output condition is set in the output condition setting function in association with the configuration information of the hardware configuration or software configuration. Then, the output condition setting unit 215 acquires the configuration information of the hardware configuration and the software configuration, and calculates the output condition based on this configuration information.

更に、コンテンツの再生頻度を再生環境情報として利用することも可能である。この場合には、出力条件設定手段215に、コンテンツ毎に再生回数を記録しておく。そして、出力条件設定関数に、再生回数に関連付けて出力条件を設定しておく。例えば、再生回数が多くなった場合には、このコンテンツの音量を下げたり、コントラストを弱めたりする等、出力レベルを下げる。これにより、繰り返しが多いコンテンツを調整することができる。   Furthermore, it is also possible to use the content reproduction frequency as reproduction environment information. In this case, the number of times of reproduction is recorded for each content in the output condition setting means 215. Then, an output condition is set in the output condition setting function in association with the number of reproductions. For example, when the number of times of reproduction increases, the output level is lowered by decreasing the volume of the content or weakening the contrast. This makes it possible to adjust content that is frequently repeated.

・上記第2の実施形態では、ダッキング終了でないと判定した場合(ステップS3−6において「NO」の場合)、クライアント端末20の制御部21は、変更された出力条件を維持する。これに代えて、ダッキング時の主副コンテンツの出力条件を、逐次変更するようにしてもよい。ここでは、ダッキング終了でないと判定した場合(ステップS3−6において「NO」の場合)、クライアント端末20の制御部21は、再生環境の特定処理(ステップS3−4)に戻る。これにより、出力条件を、時間経過に対して動的に変更することができる。   In the second embodiment, when it is determined that ducking is not completed (“NO” in step S3-6), the control unit 21 of the client terminal 20 maintains the changed output condition. Instead of this, the output conditions of the main / sub contents at the time of ducking may be changed sequentially. Here, when it is determined that ducking is not completed (in the case of “NO” in step S3-6), the control unit 21 of the client terminal 20 returns to the reproduction environment specifying process (step S3-4). Thereby, an output condition can be changed dynamically with respect to time passage.

・上記各実施形態では、クライアント端末20において、出力制御プログラムを実行させることにより、制御部21を、ダッキング管理手段213、主副特定手段214、出力条件設定手段215として機能させる。ここで、出力制御プログラムを実行する環境は、クライアント端末20に限定されるものではない。例えば、コンテンツを出力するクライアント端末20に接続された管理サーバにおいて、出力制御プログラムを実行させてもよい。この場合には、管理サーバがクライアント端末20から、コンテンツの出力状況情報や再生環境情報を取得し、これらの情報を用いてコンテンツの出力条件を決定する。そして、クライアント端末20においては、この出力条件に応じて、コンテンツを出力する。   In each of the above embodiments, the control unit 21 is caused to function as the ducking management unit 213, the main / sub specification unit 214, and the output condition setting unit 215 by causing the client terminal 20 to execute the output control program. Here, the environment for executing the output control program is not limited to the client terminal 20. For example, the output control program may be executed in a management server connected to the client terminal 20 that outputs content. In this case, the management server obtains content output status information and playback environment information from the client terminal 20, and determines the content output conditions using these pieces of information. Then, the client terminal 20 outputs content according to this output condition.

10…サーバ、12…ファイル記憶部、20…クライアント端末、21…制御部、22…端末記憶部、23…入出力部、211…ファイル取得手段、212…出力処理手段、213…ダッキング管理手段、214…主副特定手段、215…出力条件設定手段。   DESCRIPTION OF SYMBOLS 10 ... Server, 12 ... File storage part, 20 ... Client terminal, 21 ... Control part, 22 ... Terminal storage part, 23 ... Input / output part, 211 ... File acquisition means, 212 ... Output processing means, 213 ... Ducking management means, 214... Main / sub identification means, 215... Output condition setting means.

Claims (7)

シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備えたコンピュータ端末において、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させるプログラムであって、
前記コンピュータ端末の制御部を、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段、
前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段、
前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段
として機能させることを特徴とする出力制御プログラム。
In a computer terminal having a browser that displays a web page described in a markup language including a scene on a scenario, a program that functions as an execution unit that executes a script language that operates on the markup language,
A control unit of the computer terminal;
Main / sub-identifying means for identifying main contents and sub-contents by logic for determining main contents and sub-contents for a plurality of contents to be output at the time of reproduction of a markup language constituting the web page acquired by the browser;
In a script language that operates on the markup language, an output condition setting unit that acquires a volume as an output condition of the main content and sub-content at the time of ducking according to an output condition associated with scene information in which an event has occurred ,
In the markup language, when a ducking event is detected, the main / sub-identifying unit specifies main content and sub-content, and the output condition setting unit is used to determine the main content and sub-content. An output control program that acquires volume, changes output of the main content and sub-content to the volume, and functions as output adjustment means for returning the volume at the end of the event.
前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末の周囲環境情報を取得し、前記周囲環境情報に基づいて出力条件を算出するための関数を保持していることを特徴とする請求項1に記載の出力制御プログラム。   The output condition setting means is configured to acquire ambient environment information of a computer terminal that displays the web page, and hold a function for calculating an output condition based on the ambient environment information. The output control program according to 1. 前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末のハードウェア構成の構成情報を取得し、前記構成情報に基づいて出力条件を算出するための関数を保持していることを特徴とする請求項1又は2に記載の出力制御プログラム。   The output condition setting unit is configured to acquire configuration information of a hardware configuration of a computer terminal that displays the web page, and hold a function for calculating an output condition based on the configuration information. The output control program according to claim 1 or 2. 前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末のソフトウェア構成の構成情報を取得し、前記構成情報に基づいて出力条件を算出するための関数を保持していることを特徴とする請求項1〜3の何れか1項に記載の出力制御プログラム。   The output condition setting means is configured to acquire configuration information of a software configuration of a computer terminal that displays the web page and hold a function for calculating an output condition based on the configuration information. Item 4. The output control program according to any one of Items 1 to 3. 前記出力条件設定手段は、前記ウェブページを表示させるコンピュータ端末における各コンテンツの出力頻度を特定し、前記出力頻度に基づいて出力条件を算出するための関数を保持していることを特徴とする請求項1〜4の何れか1項に記載の出力制御プログラム。   The output condition setting unit specifies a frequency of output of each content in a computer terminal that displays the web page, and holds a function for calculating an output condition based on the output frequency. Item 5. The output control program according to any one of Items 1 to 4. シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備え、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させる制御部を備えた出力制御装置であって、
前記制御部が、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段、
前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段、
前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整手段を備えたことを特徴とする出力制御装置。
An output control device including a browser that displays a web page described in a markup language including a scene on a scenario, and a control unit that functions as an execution unit that executes a script language that operates on the markup language,
The control unit is
Main / sub-identifying means for identifying main contents and sub-contents by logic for determining main contents and sub-contents for a plurality of contents to be output at the time of reproduction of a markup language constituting the web page acquired by the browser;
In a script language that operates on the markup language, an output condition setting unit that acquires a volume as an output condition of the main content and sub-content at the time of ducking according to an output condition associated with scene information in which an event has occurred ,
In the markup language, when a ducking event is detected, the main / sub-identifying unit specifies main content and sub-content, and the output condition setting unit is used to determine the main content and sub-content. An output control apparatus comprising: an output adjustment unit that acquires a volume, changes the output of the main content and sub-contents to the volume, and returns the volume at the end of the event.
シナリオ上のシーンを含むマークアップ言語で記述されたウェブページを表示するブラウザを備え、マークアップ言語に作用するスクリプト言語を実行する実行手段として機能させる制御部を備えた出力制御装置を用いて、出力を制御する方法であって、
前記制御部が、
前記ブラウザが取得したウェブページを構成するマークアップ言語の再生時に、出力する複数のコンテンツについて、主コンテンツ、副コンテンツを決めるロジックにより、主コンテンツと副コンテンツとを特定する主副特定手段、
前記マークアップ言語に作用するスクリプト言語において、ダッキング時における前記主コンテンツと副コンテンツの出力条件としての音量を、イベントが発生したシーン情報に関連付けられた出力条件に応じて取得する出力条件設定手段を備え、
前記マークアップ言語において、ダッキングを行なうイベントを検知した場合には、前記主副特定手段が、主コンテンツと副コンテンツとを特定し、前記出力条件設定手段を用いて、前記主コンテンツと副コンテンツの音量を取得し、前記主コンテンツと副コンテンツの出力を前記音量に変更し、前記イベントの終了時に、前記音量を戻す出力調整を行なうことを特徴とする出力制御方法。
Using an output control device including a browser that displays a web page described in a markup language including a scene on a scenario, and a control unit that functions as an execution unit that executes a script language that operates on the markup language, A method for controlling output,
The control unit is
Main / sub-identifying means for identifying main contents and sub-contents by logic for determining main contents and sub-contents for a plurality of contents to be output at the time of reproduction of a markup language constituting the web page acquired by the browser;
In a script language that operates on the markup language, output condition setting means for acquiring a volume as an output condition of the main content and sub-content at the time of ducking according to an output condition associated with scene information in which an event has occurred Prepared,
In the markup language, when a ducking event is detected, the main / sub-identifying unit specifies main content and sub-content, and the output condition setting unit is used to determine the main content and sub-content. An output control method comprising: obtaining a volume, changing output of the main content and sub-content to the volume, and performing output adjustment for returning the volume at the end of the event.
JP2014080935A 2014-04-10 2014-04-10 Output control program, output control device, and output control method Active JP5902225B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014080935A JP5902225B2 (en) 2014-04-10 2014-04-10 Output control program, output control device, and output control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014080935A JP5902225B2 (en) 2014-04-10 2014-04-10 Output control program, output control device, and output control method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015040695A Division JP6193901B2 (en) 2015-03-02 2015-03-02 Output control program, output control device, and output control method

Publications (2)

Publication Number Publication Date
JP2015201125A JP2015201125A (en) 2015-11-12
JP5902225B2 true JP5902225B2 (en) 2016-04-13

Family

ID=54552307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014080935A Active JP5902225B2 (en) 2014-04-10 2014-04-10 Output control program, output control device, and output control method

Country Status (1)

Country Link
JP (1) JP5902225B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3775156B2 (en) * 2000-03-02 2006-05-17 ヤマハ株式会社 Mobile phone
JP5106889B2 (en) * 2006-05-23 2012-12-26 アルパイン株式会社 Audio output device
JP4928323B2 (en) * 2007-03-27 2012-05-09 Necカシオモバイルコミュニケーションズ株式会社 Terminal and computer program
JP2009094796A (en) * 2007-10-09 2009-04-30 Canon Inc Television receiver
JP4686684B1 (en) * 2010-09-22 2011-05-25 株式会社アクセル Audio processing device

Also Published As

Publication number Publication date
JP2015201125A (en) 2015-11-12

Similar Documents

Publication Publication Date Title
JP6748071B2 (en) Web content generation method and system
WO2016101755A1 (en) Drag-and-drop operation-based method and device for adjusting location of object in cross pages
TWI608416B (en) Page return method and apparatus, page generation method and apparatus
CN106844705B (en) Method and apparatus for displaying multimedia content
US20150033109A1 (en) Presenting mutlimedia objects with annotations
WO2017161743A1 (en) Webpage display method and device
TWI571757B (en) A webpage edition system and the method thereof and a computer program product for storing a webpage edition program
JP6466531B2 (en) Output control program, output control device, and output control method
JP5279793B2 (en) Mobile terminal, mobile terminal control method and program
JP6193901B2 (en) Output control program, output control device, and output control method
JP6616531B2 (en) Output control program, output control device, and output control method
WO2021184896A1 (en) Page screenshot method and device
JP5902225B2 (en) Output control program, output control device, and output control method
JP2005010992A (en) Method for explaining and advertising web page using synthesized voice
JP6896828B2 (en) Output control program, information processing device and output control method
WO2020134754A1 (en) Page communication method and apparatus, computer device and storage medium
JP6511132B2 (en) Method and apparatus for processing a file
JP2021157813A (en) Output control program, information processor, and output control method
CN110968314A (en) Page generation method and device
JP5223293B2 (en) POSITION EXPRESSION EXTRACTION DEVICE, METHOD, AND PROGRAM
US10148388B1 (en) Digital data mutation detector and controller in web application interface
WO2016016962A1 (en) Moving picture control program and moving picture control method
JP2016115187A (en) Information processing device, information processing method and program
JP2018500692A (en) Information display method and apparatus
JP6286624B2 (en) Music update type video generation system

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160309

R150 Certificate of patent or registration of utility model

Ref document number: 5902225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250