JP7307295B1 - CONTENT PROVIDING SYSTEM, CONTENT PROVIDING METHOD, AND CONTENT PROVIDING PROGRAM - Google Patents
CONTENT PROVIDING SYSTEM, CONTENT PROVIDING METHOD, AND CONTENT PROVIDING PROGRAM Download PDFInfo
- Publication number
- JP7307295B1 JP7307295B1 JP2023075537A JP2023075537A JP7307295B1 JP 7307295 B1 JP7307295 B1 JP 7307295B1 JP 2023075537 A JP2023075537 A JP 2023075537A JP 2023075537 A JP2023075537 A JP 2023075537A JP 7307295 B1 JP7307295 B1 JP 7307295B1
- Authority
- JP
- Japan
- Prior art keywords
- document
- line
- sight
- information
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000002716 delivery method Methods 0.000 claims 1
- 230000010365 information processing Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000009975 flexible effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Abstract
【課題】 本発明は、コンテンツ提供システム、コンテンツ提供方法、コンテンツ提供プログラムに関する。【解決手段】 コンテンツ提供システム1は、表示処理部、視線検出部、決定処理部、音声提供部、記憶部、を備える。記憶部は、文書情報と、文書に対応する音声に関する音声情報を格納する。表示処理部は、文書を含んだコンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信する。視線検出部は、ユーザから文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、決定処理部は、経時的に変化する前記視線情報に基づいて、視線が検出されてから音声が再生されるまでの待機時間を含んだ優先条件を文書ごとに決定する。音声提供部は、視線情報と、優先条件と、音声情報と、に基づいて文書に対応する音声を端末へ送信する。【選択図】図1Kind Code: A1 The present invention relates to a content providing system, a content providing method, and a content providing program. SOLUTION: A content providing system 1 includes a display processing unit, a line-of-sight detection unit, a decision processing unit, a voice providing unit, and a storage unit. The storage unit stores document information and audio information related to audio corresponding to the document. The display processing unit performs display processing on the content including the document, and transmits the display processing result to the terminal used by the user. The line-of-sight detection unit detects line-of-sight information including the position of the user's line of sight directed to the document and the duration of the line of sight at that position, and the decision processing unit determines, for each document, a priority condition including a waiting time from when the line of sight is detected to when the sound is reproduced, based on the line-of-sight information that changes over time. The voice providing unit transmits voice corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the voice information. [Selection drawing] Fig. 1
Description
本発明は、コンテンツ提供システム、コンテンツ提供方法、及びコンテンツ提供プログラムに関する。 The present invention relates to a content providing system, a content providing method, and a content providing program.
従来から電子文書などのコンテンツを提供するためのシステムが開発されている。そして昨今では、コンテンツを提供するための方法を工夫することに加え、当該コンテンツの演出効果を高める様々な工夫がされている。 Conventionally, systems have been developed for providing contents such as electronic documents. In recent years, in addition to devising methods for providing content, various devices have been devised to enhance the presentation effect of the content.
例えば特許文献1には、使用者の視線位置を検出するためのカメラモジュールを利用し、視線位置や検出領域における視線の滞在時間などを求め、視線位置等が所定条件に該当するときに漫画や電子文書における検出領域が使用者に読まれていると判断する電子文書端末が開示されている。
For example, in
また特許文献2には、表示手段と、音声再生手段と、音声記憶手段と、音声データ選択手段と、を備える漫画再生システムが開示されている。本漫画再生システムによれば、利用者が漫画作品に対する音声を選択できるので、利用者の興味を継続させることができる。
Further,
ところで、特許文献1の技術と特許文献2の技術を組み合わせることで、ユーザの利便性に優れ、且つ、演出効果の高いコンテンツ提供システムを実現することが考えられる。
By the way, by combining the technology of
すなわち、漫画などのコンテンツにおいて特許文献1の技術を利用してユーザの視線を検出(ユーザに読まれている文書を検出)することに加え、特許文献2の技術を利用することで、検出された文書(例えば漫画における登場人物の台詞など)に対応する音声を付したコンテンツを提供することができる。
That is, in addition to detecting the line of sight of the user (detecting the document being read by the user) using the technology of
しかしながら、漫画などのコンテンツでは台詞が読まれる順番をある程度想定していることが多い一方、実際にはユーザの視線が想定された順番に移動するとは限らない。また、ユーザは漫画などの台詞を読み飛ばしたり、読み直しをしたりすることもある。この場合、視線の移動速度が速いと前の音声の再生中に次の音声も再生されてしまい(音声が重なってしまい)、適切に台詞の音声を再生できない恐れがある。 However, while in content such as comics, the order in which lines are read is often assumed to some extent, the user's line of sight does not always move in the assumed order. In addition, the user sometimes skips or re-reads lines in comics and the like. In this case, if the line-of-sight movement speed is fast, the next sound will be reproduced while the previous sound is being reproduced (the sounds will overlap), and there is a risk that the dialogue sound cannot be reproduced properly.
本発明は、上記従来技術の課題に鑑みて行われたものであって、その目的は、従来よりも適切且つ効果的に音声が対応付けられたコンテンツを提供できるコンテンツ提供システムを提供することにある。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and its object is to provide a content providing system capable of providing content associated with sound more appropriately and effectively than the conventional art. be.
上記課題を解決するために、本発明は、コンテンツを提供するためのコンテンツ提供システムであって、
当該コンテンツ提供システムは、表示処理部と、視線検出部と、決定処理部と、音声提供部と、記憶部と、を備え、
前記記憶部は、文書に関する文書情報と、該文書に対応する音声に関する音声情報と、を格納し、
前記表示処理部は、前記文書を含んだ前記コンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信し、
前記視線検出部は、前記ユーザから前記文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、
前記決定処理部は、経時的に変化する前記視線情報に基づいて、前記視線が検出されてから前記音声が再生されるまでの待機時間を含んだ優先条件を前記文書ごとに決定し、
前記音声提供部は、前記視線情報と、前記優先条件と、前記音声情報と、に基づいて前記文書に対応する音声を前記端末へ送信する。
In order to solve the above problems, the present invention provides a content providing system for providing content,
The content providing system includes a display processing unit, a line-of-sight detection unit, a determination processing unit, an audio providing unit, and a storage unit,
the storage unit stores document information about a document and voice information about voice corresponding to the document;
The display processing unit performs display processing on the content including the document, and transmits the display processing result to a terminal used by a user;
The line-of-sight detection unit detects line-of-sight information including a line-of-sight position directed toward the document from the user and a length of time the line of sight stays at that position,
The determination processing unit determines, for each document, a priority condition including a waiting time from when the line of sight is detected to when the sound is reproduced, based on the line of sight information that changes over time;
The audio providing unit transmits audio corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the audio information.
また、本発明は、コンテンツを提供するためのコンテンツ提供システムが実行するコンテンツ提供方法であって、
当該コンテンツ提供システムは、表示処理部と、視線検出部と、決定処理部と、音声提供部と、記憶部と、を備え、
前記記憶部が、文書に関する文書情報と、該文書に対応する音声に関する音声情報と、を格納し、
前記表示処理部が、前記文書を含んだ前記コンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信し、
前記視線検出部が、前記ユーザから前記文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、
前記決定処理部が、経時的に変化する前記視線情報に基づいて、前記視線が検出されてから前記音声が再生されるまでの待機時間を含んだ優先条件を前記文書ごとに決定し、
前記音声提供部が、前記視線情報と、前記優先条件と、前記音声情報と、に基づいて前記文書に対応する音声を前記端末へ送信するステップと、を含む。
The present invention also provides a content providing method executed by a content providing system for providing content,
The content providing system includes a display processing unit, a line-of-sight detection unit, a determination processing unit, an audio providing unit, and a storage unit,
the storage unit stores document information about a document and voice information about voice corresponding to the document;
The display processing unit performs display processing on the content including the document, and transmits the display processing result to a terminal used by a user;
the line-of-sight detection unit detects line-of-sight information including a line-of-sight position directed to the document by the user and a length of stay of the line of sight at that position;
the decision processing unit, based on the line-of-sight information that changes over time, determines a priority condition for each of the documents, including a waiting time from detection of the line of sight to reproduction of the sound;
the voice providing unit transmitting voice corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the voice information.
また、本発明は、コンテンツを提供するためのコンテンツ提供プログラムであって、
コンピュータを、表示処理部と、視線検出部と、決定処理部と、音声提供部と、記憶部と、として機能させ、
前記記憶部は、文書に関する文書情報と、該文書に対応する音声に関する音声情報と、を格納し、
前記表示処理部は、前記文書を含んだ前記コンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信し、
前記視線検出部は、前記ユーザから前記文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、
前記決定処理部は、経時的に変化する前記視線情報に基づいて、前記視線が検出されてから前記音声が再生されるまでの待機時間を含んだ優先条件を前記文書ごとに決定し、
前記音声提供部は、前記視線情報と、前記優先条件と、前記音声情報と、に基づいて前記文書に対応する音声を前記端末へ送信する。
The present invention also provides a content providing program for providing content,
causing the computer to function as a display processing unit, a line-of-sight detection unit, a determination processing unit, an audio providing unit, and a storage unit;
the storage unit stores document information about a document and voice information about voice corresponding to the document;
The display processing unit performs display processing on the content including the document, and transmits the display processing result to a terminal used by a user;
The line-of-sight detection unit detects line-of-sight information including a line-of-sight position directed toward the document from the user and a length of time the line of sight stays at that position,
The determination processing unit determines, for each document, a priority condition including a waiting time from when the line of sight is detected to when the sound is reproduced, based on the line of sight information that changes over time;
The audio providing unit transmits audio corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the audio information.
このような構成にすることで、視線情報による所定の優先条件を利用して、従来よりも適切且つ効果的に、音声が対応付けられたコンテンツを提供することができる。 By adopting such a configuration, it is possible to provide content associated with audio more appropriately and effectively than conventionally, by using a predetermined priority condition based on line-of-sight information.
本発明の好ましい形態では、前記文書情報は、前記ユーザが前記文書を読み進める順番を示す進行番号を含み、
前記決定処理部は、前記視線が位置する対象文書の進行番号に対して該進行番号が次の候補文書における優先条件を第1優先条件、前記対象文書の進行番号に対して該進行番号が前の既読文書における優先条件を第2優先条件、それ以外の進行番号が付される未読文書における優先条件を第3優先条件、として決定する。
In a preferred form of the present invention, the document information includes a progression number indicating the order in which the user reads the document,
The determination processing unit sets a priority condition for the candidate document whose progress number is next to the progress number of the target document on which the line of sight is positioned as a first priority condition, and sets the progress number to precedence for the progress number of the target document. is determined as the second priority condition, and the priority condition for the other unread documents to which progress numbers are assigned is determined as the third priority condition.
このような構成にすることで、ユーザから次に閲覧される文書等を予測しながらコンテンツを提供することができる。 With such a configuration, it is possible to provide content while predicting a document or the like that will be browsed next by the user.
本発明の好ましい形態では、前記候補文書における第1優先条件には、前記既読文書における第2優先条件よりも短い待機時間が設定され、
前記未読文書における第3優先条件には、前記既読文書における第2優先条件よりも長い待機時間が設定される。
In a preferred embodiment of the present invention, a waiting time shorter than the second priority condition for the read document is set for the first priority condition for the candidate document,
A waiting time longer than the second priority condition for the read document is set for the third priority condition for the unread document.
このような構成にすることで、より適切に音声が対応付けられたコンテンツを提供することができる。 With such a configuration, it is possible to provide content in which audio is associated more appropriately.
本発明の好ましい形態では、前記文書は、前記進行番号が対応付けられるメイン文書と、それ以外のサブ文書と、を有し、
前記記憶部は、前記進行番号に基づく前記サブ文書のサブ音声再生条件を格納し、
前記音声提供部は、前記視線情報と、前記サブ音声再生条件と、に基づいて、前記サブ文書の音声を前記端末へ送信する。
In a preferred embodiment of the present invention, the document has a main document associated with the progress number and other sub-documents,
the storage unit stores a sub-audio playback condition for the sub-document based on the progress number;
The speech providing unit transmits the speech of the sub-document to the terminal based on the line-of-sight information and the sub-speech reproduction condition.
このような構成にすることで、コンテンツの提供において、より効果的な演出を実現することができる。 By adopting such a configuration, it is possible to realize a more effective effect in providing content.
本発明の好ましい形態では、前記文書情報には、前記コンテンツの表示範囲における文書の位置を示す位置情報と、前記文書の表示範囲を示す領域情報と、が対応付けられ、
前記視線検出部は、前記位置情報及び/又は領域情報を利用して、前記視線情報を検出する。
In a preferred embodiment of the present invention, the document information is associated with position information indicating the position of the document in the display range of the content and area information indicating the display range of the document,
The line-of-sight detection unit detects the line-of-sight information using the position information and/or the area information.
このような構成にすることで、精度良くユーザの視線を検出することができる。 With such a configuration, it is possible to detect the line of sight of the user with high accuracy.
本発明の好ましい形態では、前記コンテンツは電子漫画コンテンツであり、
前記文書は、電子漫画の登場者における台詞を含み、
前記音声情報は、前記電子漫画の登場者における台詞音声を含む。
In a preferred form of the present invention, the content is electronic comic content,
The document includes dialogue in the characters of the electronic comic,
The audio information includes dialogue audio of characters appearing in the electronic comics.
このような構成にすることで、電子漫画コンテンツにおいて適切に台詞の音声を提供することができる。 By adopting such a configuration, it is possible to appropriately provide the voice of the lines in the electronic comic content.
本発明の好ましい形態では、前記コンテンツ提供システムは、更に音声選択部を備え、
前記記憶部は、複数の前記台詞音声を格納し、
前記音声選択部は、前記ユーザからの入力に基づいて、同一の台詞に対し、複数の台詞音声の中から1の台詞音声を選択可能である。
In a preferred embodiment of the present invention, the content providing system further comprises an audio selector,
the storage unit stores a plurality of the dialogue voices,
The voice selection unit can select one line voice from among a plurality of line voices for the same line based on the input from the user.
このような構成にすることで、ユーザの要望に応じた台詞の音声を提供することができる。 By adopting such a configuration, it is possible to provide the voice of the dialogue according to the user's request.
本発明によれば、視線情報による所定の優先条件を利用することで、コンテンツ提供システムに係る新規な技術を提供することができる。 According to the present invention, it is possible to provide a novel technology related to a content providing system by using a predetermined priority condition based on line-of-sight information.
以下、添付図面を参照して、更に詳細に説明する。図面には好ましい実施形態が示されている。しかし、多くの異なる形態で実施されることが可能であり、本明細書に記載される実施形態に限定されない。 A more detailed description is given below with reference to the accompanying drawings. Preferred embodiments are shown in the drawings. It may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.
例えば、本実施形態ではコンテンツ提供システムの構成、動作等について説明するが、実行される方法(ステップ)、装置、コンピュータプログラム等によっても、同様の作用効果を奏することができる。本実施形態におけるプログラムは、コンピュータが読み取り可能な非一過性の記録媒体として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよい。 For example, although the configuration, operation, etc. of the content providing system will be described in the present embodiment, similar effects can be achieved by methods (steps), devices, computer programs, etc. that are executed. The program in this embodiment may be provided as a computer-readable non-transitory recording medium, or may be provided downloadably from an external server.
また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらハードウェア資源によって具体的に実現され得るソフトウェアの情報処理とを合わせたものも含み得る。 Further, in the present embodiment, the term "unit" may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be specifically realized by these hardware resources.
本実施形態において「情報」とは、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行され得る。 In this embodiment, "information" refers to, for example, the physical value of a signal value representing voltage or current, the height of a signal value as a binary bit aggregate composed of 0 or 1, or the quantum superposition. (so-called quantum bits), and communication and computation can be performed on a circuit in a broad sense.
広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)及びメモリ(Memory)等を適宜組み合わせることによって実現される回路である。即ち、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等を含むものである。 A circuit in a broad sense is a circuit realized by appropriately combining circuits, circuits, processors, memories, and the like. That is, it includes CPU (Central Processing Unit), GPU (Graphics Processing Unit), LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and the like.
<システム構成>
図1は、本発明の一実施形態に係るシステム構成を示すブロック図である。図1に示すようにコンテンツ提供システム1は、情報処理装置10及びデータベースDBを備える。コンテンツ提供システム1は、ネットワークNWを介して複数の端末2(図1では符号2(a)~2(c))、及び複数の音声提供サーバ3(図1では符号3(a)~3(c))と通信可能に構成されている。
<System configuration>
FIG. 1 is a block diagram showing the system configuration according to one embodiment of the present invention. As shown in FIG. 1, the
情報処理装置10は、サーバとして動作し、端末2はユーザが漫画などのコンテンツを閲覧等するための端末であり、音声提供サーバ3はコンテンツに含まれる文書に対応する音声を提供するためのサーバである。なお、音声提供サーバ3は本発明を実現するために必ずしも必要な構成ではなく、音声提供サーバ3の機能を情報処理装置10に含める構成にすることもできる。
The
ネットワークNWは、本実施形態では、IP(Internet Protocol)ネットワークであるが、通信プロトコルの種類に制限はなく、更に、ネットワークの種類、規模にも制限はない。 Although the network NW is an IP (Internet Protocol) network in this embodiment, there is no limit to the type of communication protocol, and there is no limit to the type and scale of the network.
なお、情報処理装置10として、汎用のサーバ向けのコンピュータやパーソナルコンピュータ等を利用することが可能である。また、後述の機能構成要素を複数のコンピュータに実現させ、コンテンツ提供システム1を構成することも可能である。
As the
端末2として、スマートフォンやタブレット端末、パーソナルコンピュータ、ウェアラブルデバイス等を利用することができる。端末2は、ユーザ用のコンテンツ提供アプリプログラムを記憶し、このアプリプログラムはユーザにおいて当該コンテンツ提供システム1から提供されるコンテンツを閲覧し、あるいはユーザがコンテンツを閲覧するために必要な情報を情報処理装置10に送信するための機能を有して構成される。
A smartphone, a tablet terminal, a personal computer, a wearable device, or the like can be used as the
なお、端末2はユーザ用のコンテンツ提供アプリプログラムを有していない構成にすることもできる。この場合、端末2はウェブブラウザ等を利用して各情報を閲覧等することができる。
It should be noted that the
音声提供サーバ3は、コンテンツに含まれる文書に対応する音声(音声データ)を格納する。図1に示すように、複数の音声提供サーバ3がネットワークNWを介して情報処理装置10と通信接続されている。例えば漫画などのコンテンツにおいて登場人物ごとの声優が所属する会社が異なる場合、情報処理装置10は複数の音声提供サーバ3からそれぞれの音声データの提供を受けることができる。
The
<ハードウェア構成>
図2(a)は、情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、ハードウェア構成として、制御部11と、記憶部12と、通信部13と、を備える。
<Hardware configuration>
FIG. 2A is a diagram showing an example of the hardware configuration of the
制御部11は、CPU等の1又は2以上のプロセッサを含み、本発明に係るコンテンツ提供プログラム、OS、その他のアプリケーションを実行することで、情報処理装置10の動作処理全体を制御する。
The
記憶部12は、HDD、SSD、ROM、RAM等であって、本発明に係るコンテンツ提供プログラム及び、制御部11がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。制御部11が、記憶部12に記憶されているコンテンツ提供プログラムに基づき、処理を実行することによって、後述する機能構成が実現される。
The
通信部13は、ネットワークNWとの通信制御を実行して、情報処理装置10を動作させるために必要な入力や、動作結果に係る出力を行う。
The
図2(b)は端末90(図1における端末2)のハードウェア構成の一例を示す図である。端末90は、ハードウェア構成として、制御部91と、記憶部92と、通信部93と、入力部94と、出力部95と、を備える。
FIG. 2B is a diagram showing an example of the hardware configuration of the terminal 90 (
端末90の制御部91は、CPU等の1以上のプロセッサを含み、端末90の動作処理全体を制御する。端末90の記憶部92は、HDD、SSD、ROM、RAM等であって、上述のコンテンツ提供アプリケーション並びに、制御部91がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。
A
端末90の通信部93は、ネットワークとの通信を制御する。端末90の入力部94は、タッチパネル、マウス及びキーボード等であって、ユーザによる操作要求を制御部91に入力する。端末90の出力部95は、ディスプレイ等であって、制御部91の処理の結果等を表示する。
A
<機能構成>
図2(a)に示すように、情報処理装置10は、機能構成として、登録部101、表示処理部102、視線検出部103、決定処理部104、音声提供部105、音声選択部106、を備える。これらは、ソフトウェア(記憶部12に記憶されている)による情報処理が、ハードウェア(制御部11等)によって具体的に実現されたものである。
<Functional configuration>
As shown in FIG. 2A, the
登録部101は、ユーザにコンテンツを提供するために必要な各種情報を登録する。本実施形態における登録部101は、文書情報やコンテンツ情報を登録する。例えば登録部101は、音声提供サーバ3から音声情報を取得し、記憶部12へ登録(格納)することができる。
The
表示処理部102は、ユーザからの要求に基づいてコンテンツを表示処理する。本実施形態では、文書を含んだコンテンツを表示処理し、その表示処理結果をユーザが使用する端末2へ送信する。
The
例えば表示処理部102は、後述する視線情報に基づいて(視線が対象領域に位置する場合に)対象領域のコンテンツ画像を動作させて表示処理することができる。具体的に表示処理部102は、ユーザの視線が対象領域に位置する場合、電子漫画などにおける登場人物の顔の表情、目や口などを動かすアニメーション表示をし、対象領域から視線が外れた後は静止画像として表示することができる。
For example, the
同様に表示処理部102は、視線情報に基づいて対象領域のコンテンツ画像の色を変更することができる。例えば表示処理部102は、ユーザの視線が対象領域に位置する場合、電子漫画などにおける対象となるコマについてカラー表示を行い、対象領域から視線が外れた後は白黒表示を行うことができる。その他、VR機器を利用して仮想空間上にコンテンツを表示処理することもできる。これらの表示処理を行うことで本コンテンツ提供システムは、音声と共にさらなる演出効果を提供することができる。
Similarly, the
視線検出部103は、ユーザから端末2へ向けられる視線を検出する。本実施形態における視線検出部103は、ユーザからコンテンツに含まれる文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出する。
The line-of-
また、視線検出部103は、コンテンツの表示範囲における文書の位置を示す位置情報及び/又は文書の表示範囲を示す領域情報を利用して、視線情報を検出することができる。
Further, the line-of-
この視線の検出は、端末2に設けられるカメラ(撮像部)によってユーザの動作(顔の動きや目線の動き)を取得し、当該ユーザの動作から視線情報を検出することができる。また、例えば情報処理装置10(表示処理部102)は、コンテンツに含まれる文書の閲覧に影響しない透明レイヤーを当該コンテンツの上に重ねて表示処理し、その透明レイヤーにユーザの視線が位置する場合に視線を検出することもできる。この透明レイヤーはユーザの視線に反応するボタンとして機能する。このように本発明を実現するための視線の検出には、一般的なアイトラッキング技術(視線計測の技術)を利用することができる。
This line-of-sight detection can be performed by acquiring the user's motion (face movement and line-of-sight movement) with a camera (imaging unit) provided in the
決定処理部104は、文書に対応する音声を再生するための優先条件を決定する。本実施形態における決定処理部104は、経時的に変化する視線情報に基づいて、視線が検出されてから音声が再生されるまでの待機時間を含んだ優先条件を文書ごとに決定する。決定処理部104は、視線情報に基づいて、文書ごとに優先条件を判定処理し、その判定処理結果により文書ごとの優先条件を決定することができる。
The
また、決定処理部104は、コンテンツに含まれる文書において、現時点においてユーザの視線が位置する対象文書の進行番号(ユーザが文書を読み進める順番を示す進行番号)に対して該進行番号が次の(1つ大きい値の)候補文書(次に読まれることが想定される文書)における優先条件を第1優先条件、対象文書の進行番号に対して該進行番号が前の(1つ小さい値)の既読文書(1つ前に読まれた文書)における優先条件を第2優先条件、それ以外の進行番号が付される未読文書における優先条件を第3優先条件、として決定することもできる。
In addition, the
音声提供部105は、文書に対応する音声を端末2などへ送信する。本実施形態における音声提供部105は、視線情報と、優先条件と、音声情報と、に基づいて文書に対応する音声を端末2へ送信する。
The
また、音声提供部105は、視線情報と、上記の進行番号が付されていないサブ文書におけるサブ音声再生条件と、に基づいて、当該サブ文書の音声を端末2へ送信することもできる。
Further, the
音声選択部106は、文書に対応する音声を選択する。本実施形態において音声選択部106は、ユーザからの入力に基づいて、同一の文書(例えば漫画における台詞)に対し、複数の台詞音声の中から1の台詞音声を選択可能に構成することができる。
A
例えば記憶部12に、同一の台詞について複数の声優による音声データが格納されている場合、音声選択部106はユーザの入力(要求)に基づいてこれら複数の声優による音声データの中から1の音声データを選択することができる。
For example, if the
<データベースDB>
図1のデータベースDBは、コンテンツに含まれる文書に関する文書情報、文書に対応する音声に関する音声情報、コンテンツ情報、優先条件情報、その他コンテンツの閲覧に必要な情報などを格納する。これらの一部又は全部は、記憶部12等に格納されてもよいし、これらの一部が別のデータベース等に格納されてもよい。
<Database DB>
The database DB in FIG. 1 stores document information on documents included in content, audio information on audio corresponding to the document, content information, priority condition information, and other information necessary for browsing content. Some or all of these may be stored in the
以下、図3~11を参照して、コンテンツ提供システム1の説明及び各機能構成要素による処理内容について説明する。
3 to 11, description of the
<コンテンツ提供システムの概要>
本実施形態に係るコンテンツ提供システム1は、ユーザからの要求に応じて音声付きのコンテンツを提供するためのシステムである。具体的には、コンテンツが表示された端末2へ向けられるユーザからの視線を検出し、その視線に基づいて漫画などのコンテンツと共に、台詞に対応する音声を提供することができる。
<Outline of content providing system>
A
図3には、本発明の一実施形態に係るコンテンツ提供システムの概略イメージ図を示す。同図に示すように、情報処理装置10は、端末2に表示されたコンテンツ(例えばコンテンツが漫画の場合には台詞などの文書)へ向けられたユーザからの視線の位置等を視線情報として検出する(図3(a))。
FIG. 3 shows a schematic image diagram of a content providing system according to one embodiment of the present invention. As shown in the figure, the
そして情報処理装置10は、視線情報を利用して特徴的な所定条件に基づいた音声データを端末2へ送信する(図3(b))。端末2は、ユーザから視線が向けられるコンテンツの文書に対応する音声を再生(出力)する(図3(c))。
Then, the
この図3における(a)から(c)の一連の処理が繰り返されることで、ユーザは通常の電子漫画コンテンツに演出効果が付加された、すなわち、音声付の電子漫画コンテンツを楽しむことができる。 By repeating the series of processes from (a) to (c) in FIG. 3, the user can enjoy the electronic comic content with sound effect added to the normal electronic comic content.
本実施形態におけるコンテンツ提供システム1は、概略以上のような流れで各処理を行う。以下、本実施形態に係るコンテンツ提供システム1の具体的な処理手順について詳しく説明する。
The
<各種情報の登録>
図4は、一実施形態に係るコンテンツ提供システムの処理手順を示すフローチャートである。S201において、情報処理装置10の登録部101は、コンテンツ情報を登録する。コンテンツ情報には、文書情報及び音声情報が対応付けられている。
<Registration of various information>
FIG. 4 is a flow chart showing the processing procedure of the content providing system according to one embodiment. In S201, the
図5(a)に示すように、文書情報は、コンテンツに含まれる文書のテキスト、コンテンツの表示範囲における文書の位置を示す位置情報、文書の表示範囲を示す領域情報、メイン文書やサブ文書などの文書種別、文書に対応する音声の音声ID、文書を読み進める順番を示す進行番号、などの情報を含んでユーザIDで管理される。例えば図5(a)では、進行番号(1)、(2)、(3)、(4)の順番で文書が読み進められることになる。 As shown in FIG. 5A, the document information includes the text of the document included in the content, position information indicating the position of the document in the display range of the content, area information indicating the display range of the document, main document, sub-document, etc. document type, voice ID of voice corresponding to the document, progress number indicating the order in which the document is read, etc., and is managed by the user ID. For example, in FIG. 5A, the document is read in the order of progress numbers (1), (2), (3), and (4).
また、図5(b)に示すように音声情報は、音声データの情報、各音声データを担当する声優名、などの情報を含んで音声IDで管理される。そして図5(c)に示すようにコンテンツ情報は、画像データ、文書ID、音声ID、などの情報を含んでコンテンツIDで管理される。 Also, as shown in FIG. 5(b), the audio information includes information on audio data, names of voice actors in charge of each audio data, etc., and is managed by audio IDs. As shown in FIG. 5(c), the content information includes information such as image data, document ID, voice ID, etc., and is managed by the content ID.
登録部101は、図1の音声提供サーバ3から音声データ等を取得し、この音声データを音声情報として記憶部12に格納(登録)することもできる。また、登録部101は、ユーザの端末2から音声データを音声情報として取得し、記憶部12に格納(登録)することもできる。
The
例えば登録部101は、複数の声優による音声データを、それぞれの声優が属する音声提供サーバ3(a)~(c)から取得し、同一の台詞等に対して異なる声優による音声データを登録することもできる。この場合、詳細は後述するが同一の台詞や登場人物に対して複数の声優による音声データを選択的に対応付けることができる。
For example, the
加えて、図5(d)に示すように登録部101は、音声を再生するための優先度や条件を示す優先条件情報を登録する。優先条件情報は、後述するメイン文書やサブ文書などの文書種別、第1優先条件や第2優先条件などの項目、ユーザからの視線が検出されてから音声が再生されるまでの待機時間に関する情報、他の音声再生条件、などの情報を含んで優先条件IDで管理される。
In addition, as shown in FIG. 5D, the
なお、本実施形態では、画像データと文書とを別々に登録しているが、例えば画像データに漫画などの登場人物や台詞などを含めて登録することもできる。この場合、文書情報には、テキストの情報を含めずに、画像データ内における台詞の位置や範囲等の情報が含まれ、これに加えて当該文書に視線が向けられた際には視線情報を検知するためのボタン(上述した透明なレイヤー)に関する情報を含ませれば良い。 In the present embodiment, the image data and the document are separately registered, but for example, the image data can include the characters and lines of comics and the like and be registered. In this case, the document information does not include text information, but includes information such as the position and range of lines in the image data. Just include information about the button (the transparent layer mentioned above) to detect.
また、例えば本コンテンツ提供システムを利用するユーザに対し、あらかじめユーザ登録を行わせることもできる。この場合、ユーザ登録されたユーザのみが本コンテンツ提供システムを利用することができる。 Also, for example, users who use this content providing system can be made to perform user registration in advance. In this case, only registered users can use this content providing system.
<表示処理及び視線検出>
S202において、情報処理装置10の表示処理部102は、ユーザからの要求に基づいて漫画などのコンテンツを表示処理し、その表示処理結果を端末2へ送信する。図6には、本発明の一実施形態に係る表示処理結果の一例を示す。同図に示すように本実施形態において端末2に表示されるコンテンツ画像W10は電子漫画などである。
<Display processing and line-of-sight detection>
In S<b>202 , the
図6におけるコンテンツ画像W10では、登場者(登場人物)として人物1及び人物2が表示されると共に、それぞれの登場者に対する台詞が表示されている。ここでは、台詞が図5(a)における文書(文書情報)であり、人物1や人物2(及び図示を省略している背景画像など)が図5(c)における画像データである。なお、上述のとおり、文書と登場者等を合わせて画像データとして表示処理することもできる。なお、登場者は人物に限られるものではない。
In the content image W10 in FIG. 6,
例えば図6では、台詞に(1)から(7)までの進行番号が付されている。進行番号は、ユーザが文書を読み進める順番を示す番号である。図6では進行番号を説明するために(1)から(7)をコンテンツ画像W10に表示しているが、実際の表示処理においてはこの進行番号を表示しなくても良い。 For example, in FIG. 6, the lines are numbered from (1) to (7). The progression number is a number indicating the order in which the user advances through the document. In FIG. 6, (1) to (7) are displayed in the content image W10 to explain the progress numbers, but the progress numbers may not be displayed in actual display processing.
S203において、情報処理装置10の視線検出部103は、ユーザからの視線を検出する。具体的に視線検出部103は、ユーザから図6における文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出する。
In S203, the line-of-
上述のとおり、この視線の検出は、視線検出部103において端末2に設けられるカメラによってユーザの動作(顔の動きや目線の動き)を取得し、当該ユーザの動作から視線情報を検出することができる。あるいは、表示処理部102がコンテンツに含まれる文書の閲覧に影響しない透明レイヤーを当該コンテンツに重ねて表示処理し、その透明レイヤーにユーザの視線が位置する場合に視線検出部103によって視線を検出することもできる。
As described above, the line-of-
図7(a)に示すように、視線情報は、ユーザから文書へ向けられる視線の位置に関する位置情報、ユーザから文書へ向けられる視線の位置における滞在時間、視線が検出された検出時刻、などの情報を含んで視線情報IDで管理される。 As shown in FIG. 7A, the line-of-sight information includes position information about the position of the user's line of sight directed to the document, stay time at the position of the user's line of sight directed to the document, detection time when the line of sight was detected, and the like. Information is included and managed by a line-of-sight information ID.
視線情報における位置情報には、例えばコンテンツの全体表示に対する文書の位置を示した座標などを利用することができる。また、領域情報には、いわゆるバウンディングボックス(文字列などの周囲を囲む矩形の境界線)の技術を利用することができる。これら視線情報に基づいて後述する音声再生の優先条件が決定される。 For the position information in the line-of-sight information, for example, coordinates indicating the position of the document with respect to the entire display of the content can be used. For area information, a so-called bounding box (a rectangular boundary line surrounding a character string) can be used. A priority condition for audio reproduction, which will be described later, is determined based on the line-of-sight information.
<優先条件>
S204において、情報処理装置10の決定処理部104は、文書ごとの優先条件を決定する。決定処理部104は、経時的に変化する視線情報に基づいて、視線が検出されてから音声が再生されるまでの待機時間を含んだ優先条件を文書ごとに決定する。本実施形態では、この優先条件に基づいて文書に対応する音声が再生される。
<Priority conditions>
In S204, the
決定処理部104は、現時点においてユーザの視線が位置する対象文書の進行番号(ユーザが文書を読み進める順番を示す進行番号)に対して該進行番号が次の(1つ大きい値の)候補文書(次に読まれることが想定される文書)における優先条件を第1優先条件、対象文書の進行番号に対して該進行番号が前の(1つ小さい値の)既読文書(1つ前に読まれた文書)における優先条件を第2優先条件、それ以外の進行番号が付される未読文書における優先条件を第3優先条件、として決定する。
The
なお、進行番号の順番は特に限定されるものではなく、例えば進行番号を逆順、すなわち小さい番号が付された文書の次に大きい番号が付された文書が読まれる順番ではなく、大きい番号が付された文書の次に小さい番号が付された文章が読まれるように進行番号を設定することもできる。 The order of the progress numbers is not particularly limited. A progress number can also be set so that the next lower numbered sentence is read after the written document.
優先条件は、経時的に変化する視線情報に基づいて各文書に対して決定され、音声再生情報として管理される。例えば図7(b)に示すように音声再生情報は、視線ID、音声ID、コンテンツID、進行番号、優先条件ID、第1優先などの項目、及び待機時間、他の音声再生条件、などの情報を含んで管理される。この図7(b)の音声再生情報は、後述する図8のコンテンツ画像W10に対応している(視線ID40002は、音声再生中)。
A priority condition is determined for each document based on line-of-sight information that changes over time, and is managed as audio reproduction information. For example, as shown in FIG. 7B, the audio reproduction information includes items such as line-of-sight ID, audio ID, content ID, progression number, priority condition ID, first priority, waiting time, and other audio reproduction conditions. Information is included and managed. The audio reproduction information in FIG. 7B corresponds to the content image W10 in FIG. 8 described later (line-of-
なお、ユーザの視線は、経時的に変化するものであり、短時間で各文書に対する優先条件が変化するため、音声再生情報は必ずしも記憶部12で管理される必要はなく、例えばユーザからの視線の変化に応じてその都度優先条件の決定ないし変更を繰り返し、データとしては管理されない構成にすることもできる。このような構成にすることで記憶部12におけるデータ容量の削減が期待できる。
Note that the line of sight of the user changes over time, and the priority conditions for each document change in a short period of time. It is also possible to repeat determination or change of the priority condition each time according to the change of the priority condition and not to manage it as data. Such a configuration can be expected to reduce the data capacity of the
図8には、本発明の一実施形態に係る優先条件の概略イメージ図を示す。図8では説明を分かりやすくするために、吹き出しとして表現している文書ごとの進行番号を(1)から(7)として表示し、また優先条件に応じてそれぞれの文書の吹き出し部分に色や模様を付している。以下、図8において進行番号(1)が付された文書(台詞)のことを文書(1)、進行番号(2)が付された文書のことを文書(2)と表現する((3)~(7)についても同様とする)。 FIG. 8 shows a schematic image diagram of priority conditions according to one embodiment of the present invention. In FIG. 8, in order to make the explanation easier to understand, the progress number of each document expressed as balloons is indicated as (1) to (7), and the color and pattern of the balloon part of each document are displayed according to the priority conditions. is attached. Hereinafter, the document (speech) to which the progress number (1) is attached in FIG. to (7)).
例えば図8に示すように、文書(2)の台詞にユーザからの視線が向けられると、すなわち、視線検出部103がユーザからの視線を検出すると、当該文書(2)の台詞に対して端末2から音声が再生される(詳細は後述)。
For example, as shown in FIG. 8, when the line of sight of the user is directed to the line of the document (2), that is, when the line of
この時、文書(2)の優先条件は、音声が再生される優先度が最も高い第1優先条件として決定処理部104によって決定される。なお、文書(2)のように音声再生中の文書に対しては優先条件を定めないようにすることもできる。例えば音声再生中の文書は、第1優先条件から第2優先条件へ徐々に変化していくように設定することもできる。
At this time, the priority condition of the document (2) is determined by the
そして図8に示すように、視線情報に基づいて文書(2)が音声再生中である場合に、決定処理部104は、再生中の文書(2)に対して次に位置する(ストーリーの順番として次に読まれる)文書(3)の優先条件を、該優先条件が最も高い第1優先条件として決定する。ユーザは、通常であれば文書(2)の次に文書(3)を読む可能性が高いことから、本実施形態における決定処理部104は、文書(3)を第1優先条件として決定する。
Then, as shown in FIG. 8, when the document (2) is being played back based on the line-of-sight information, the
さらに決定処理部104は、音声再生中の文書(2)に対して前に位置する(すでに読み終えた1つ前に位置する)文書(1)の優先条件を、優先度が2番目に高い第2優先条件として決定する。これはユーザが1つ前の文書(1)を読み直す可能性を考慮したものである。
Further, the
そして決定処理部104は、文書(2)が音声再生中の状態において、文書(1)及び文書(3)以外の文書(4)、文書(5)、文書(6)、文書(7)に対する優先条件を第3優先条件として決定する。文書(5)などは文書(1)及び文書(3)に対してユーザから視線が向けられる可能性が低いことを考慮したものである。
Then, while the document (2) is being played back, the
このように決定処理部104は、視線情報に基づいて、それぞれの文書に対してユーザが視線を向ける可能性に応じた優先条件を決定する。本実施形態では、この優先条件によって、ユーザから視線を得てから音声を再生するまでの待機時間をそれぞれ設定している。例えば図7(b)では、第1優先条件の待機時間を1.0秒、第2優先条件の待機時間を3.0秒、第3優先条件の待機時間を6.0秒と設定している。この待機時間は、ユーザから(端末2から)の設定変更入力に基づいて任意に変更することができる。
In this way, the
例えば第1優先条件における待機時間は、0.1秒から2.0秒程度であることが好ましいく、より好ましくは0.5秒から1.0秒程度であることが好適である。第1優先条件の文書はユーザが次に読む可能性が高く、瞬時に音声を再生させる必要があることからこのように設定している。 For example, the waiting time under the first priority condition is preferably about 0.1 seconds to 2.0 seconds, more preferably about 0.5 seconds to 1.0 seconds. The document of the first priority condition is highly likely to be read next by the user, and is set in this way because it is necessary to instantly reproduce the voice.
また、第2優先条件における待機時間は、2.0秒から5.0秒程度であることが好ましく、より好ましくは3.0~4.0秒程度であることが好適である。例えばユーザが台詞の読み直し等をする可能性がある一方、このような場合であっても音声再生まではユーザから望まれておらず、瞬発的に第2優先条件が付された文書に目線を移動させる可能性があり、適切に音声を再生できるようにするためこのように設定している。 Also, the waiting time under the second priority condition is preferably about 2.0 to 5.0 seconds, more preferably about 3.0 to 4.0 seconds. For example, while there is a possibility that the user will re-read the dialogue, even in such a case, the user does not want to reproduce the voice, and the user will instantly look at the document to which the second priority condition has been attached. It's set this way so that it can be moved and the sound can be played properly.
さらに第3優先条件における待機時間は、5.0秒から10.0秒程度であることが好ましく、より好ましくは6.0から8.0秒程度であることが好適である。第3優先条件が付される文書は、基本的にユーザから次に読まれる可能性が低い一方、例えばユーザがコンテンツ全体を確認するために高速で視線を移動させる可能性があり、このような場合であっても適切に音声を再生できるようにするためである。言い換えれば、ユーザがコンテンツ全体を確認するために高速で視線を移動させた場合には、音声を再生させないようにするためである。 Furthermore, the waiting time under the third priority condition is preferably about 5.0 to 10.0 seconds, more preferably about 6.0 to 8.0 seconds. Documents to which the third priority condition is attached are basically less likely to be read next by the user, but there is a possibility that, for example, the user will move the line of sight at high speed to check the entire content. This is so that the audio can be reproduced appropriately even in the case of In other words, this is to prevent the sound from being reproduced when the user quickly moves the line of sight in order to check the entire content.
そして図9に示すように、ユーザからの視線によって文書(3)が音声再生中になると決定処理部104は、文書(3)に対して進行番号が1つ大きい値を示す文書(4)を第1優先条件として決定(または変更)し、文書(3)に対して進行番号が1つ小さい値を示す文書(2)を第2優先条件として決定し、それ以外の文書(1)、文書(5)、文書(6)、文書(7)は第3優先条件として決定する。
Then, as shown in FIG. 9, when document (3) is being played back by the user's line of sight, the
また、図10に示すように、未だコンテンツに含まれる文書に対してユーザからの視線が向けられていない場合、すなわち、当該コンテンツのページをはじめて表示した状態において決定処理部104は、文書(1)を第1優先条件として決定し、それ以外の文書(2)~文書(7)は第3優先条件として決定する。
Further, as shown in FIG. 10, when the line of sight of the user is not directed to the document included in the content, that is, when the page of the content is displayed for the first time, the
本実施形態では、ユーザが図10の文書(1)に視線を向けて当該文書を読み進めることで、すなわち、決定処理部104は経時的に変化するユーザの視線情報に基づいて優先条件を上述した図8や図9の状態へと決定ないし変更していく。 In this embodiment, when the user directs his/her line of sight to the document (1) in FIG. It determines or changes to the state shown in FIG. 8 or FIG.
そしてS205において、視線情報と優先条件に基づいた音声を、ユーザが利用する端末2へ送信する。端末2は、所定の優先条件に基づいた音声(音声データ)を受信する。
Then, in S205, voice based on the line-of-sight information and the priority condition is transmitted to the
S206において、音声データを受信した端末2において、文書に対応する音声が端末2から出力される。具体的には上述したとおり図8~10に示したそれぞれの文書には優先条件が決定されているので、ユーザからの視線情報(位置情報、領域情報)に基づいてそれぞれの優先条件に応じた待機時間が経過した後に端末2から音声が再生される。
At S206, the
このように優先条件に応じた待機時間を設定することで、例えばユーザが当該コンテンツの台詞全体を確認する場合(視線の位置を高速で切り替えて全体を見ている場合)などには音声は再生されず、ユーザが当該台詞を読みたい適切なタイミングでコンテンツに含まれる文書の音声を再生させることができる。 By setting the waiting time according to the priority condition in this way, for example, when the user confirms the entire dialogue of the content (when the user is looking at the entire content by switching the position of the line of sight at high speed), the audio is played back. Instead, the voice of the document included in the content can be reproduced at an appropriate timing when the user wants to read the dialogue.
図11には本実施形態に係るコンテンツ提供システムの詳細な処理フローを示す。同図に示すように、情報処理装置10は、ユーザからの視線が端末2の対象領域に入ると(S301)、進行度ログを参照し(S302)、優先度を決定(及び判定)する(S303)。そして現時点において前回実行音声を再生中か否かを判定し(S304)、再生中であれば再生中の音声トラックを停止(スキップ)する(S305)。再生中でなければ音声再生を優先条件の待機時間に基づいて待機する(S306)。
FIG. 11 shows a detailed processing flow of the content providing system according to this embodiment. As shown in the figure, when the line of sight from the user enters the target area of the terminal 2 (S301), the
その後、当該対象領域から視線が外れたか否かを判定し(S307)、視線が外れていれば実行処理をキャンセルし(S308)、当該対象領域から視線が外れなければ文書に対応付けられた音声が端末2から再生され(S309)、進行ログが更新され(S310)、視線が外れたか否かを判定し(S311)、次の音声アルゴリズムに向けてこれら一連の処理が繰り返される。 Thereafter, it is determined whether or not the line of sight has left the target area (S307). If the line of sight has left the target area, the execution processing is canceled (S308). is played back from the terminal 2 (S309), the progress log is updated (S310), it is determined whether or not the line of sight is off (S311), and these series of processes are repeated for the next speech algorithm.
本実施形態においてこれらの処理を行う場合、視線検出部103は、S301、S302、S307、S310、S311に関連する処理を実行し、決定処理部104はS303、S304、S305に関連する処理を実行し、音声提供部105(または音声を受信した端末2)はS306、S308、S309に関連する処理を実行し、また記憶部12は進行度ログ等を管理する。
When performing these processes in the present embodiment, the line-of-
例えば進行度ログと視線情報を利用して、ユーザが注目して複数回閲覧した文書等を数値として解析し、この解析結果を利用してコンテンツの内容や構成が変わる変則的なコンテンツを提供することもできる。 For example, by using the progress log and line-of-sight information, the documents, etc. that the user paid attention to and viewed multiple times are analyzed numerically, and the results of this analysis are used to provide irregular content that changes the content and structure. can also
<サブ文書の音声再生>
本実施形態における文書は、2種類の種別に分かれており、これら複数の文書種別に応じて音声再生を管理することができる。具体的に本実施形態における文書は、進行番号が対応付けられるメイン文書と、それ以外のサブ文書と、を有する(図5(a))。なお、文書の種別は2種類に限られず、3種類以上に分類して音声再生を管理することもできる。
<Audio playback of sub-document>
Documents in this embodiment are divided into two types, and voice reproduction can be managed according to these document types. Specifically, the document in this embodiment has a main document associated with a progress number and other sub-documents (FIG. 5(a)). Note that the types of documents are not limited to two types, and it is also possible to classify documents into three or more types and manage audio reproduction.
図12には、本発明の一実施形態に係るサブ文書を説明するための概略イメージ図を示す。図12は、図8に示したコンテンツ画像W10にサブ文書等が付加されたものである。このサブ文書は、コンテンツにおいてメインとなるストーリーとは関連性の低い文書であり、図8では雨音を「ポツポツ」と表現した文書である。 FIG. 12 shows a schematic image diagram for explaining a sub-document according to one embodiment of the present invention. FIG. 12 shows the content image W10 shown in FIG. 8 with sub-documents and the like added. This sub-document is a document that has little relevance to the main story in the content, and is a document in which the sound of rain is expressed as "dropping" in FIG.
情報処理装置10の登録部101は、あらかじめ進行番号に応じたサブ文書のサブ音声再生条件を登録することができる。例えば図5(d)に示すように、サブ音声再生条件を優先条件情報に含めて登録することができる。
The
図12(b)には、サブ音声再生情報の設定イメージを示す。同図に示すように、音声提供部105は、ユーザからの視線が進行番号(2)~(4)の範囲に位置する場合、すなわち文書(2)~(4)がユーザに読まれている場合において、雨音を表現した「ポツポツ」の音声データを端末2へ送信することができる。
FIG. 12(b) shows a setting image of sub-audio reproduction information. As shown in the figure, the
このように本実施形態では、コンテンツのストーリーとは関連性が低いものの、演出効果を高めるためのサブ文書等についても所定の条件に基づいて音声を再生することができる。なお、このサブ音声再生条件は、ユーザからの入力に応じて適宜変更することができる。 As described above, in this embodiment, although the relevance to the story of the content is low, it is possible to reproduce the audio based on a predetermined condition even for a sub-document or the like for enhancing the presentation effect. It should be noted that this sub-audio reproduction condition can be appropriately changed according to the input from the user.
加えて、図12(b)に示すように、他の演出効果として「BGM」を希望する場合、進行番号(1)~(7)に視線があることを条件にBGMの音声が流れるように設定することもできる。この場合、BGMの音に重ねて文書(2)などの台詞の音声が再生される。 In addition, as shown in FIG. 12(b), if "BGM" is desired as another production effect, the sound of BGM will be played on the condition that the line of sight is on the progression numbers (1) to (7). Can also be set. In this case, the voice of the lines of the document (2) is reproduced superimposed on the sound of the BGM.
また、文書(5)の場面において効果音を出力(再生)することもできる。この場合、BGMの音に重ねて効果音や文書(5)の音声が再生される。例えば文書(5)の台詞が再生された後や台詞が再生される前に効果音(これに限らずサブ文書の音声)を再生させるように設定することもできる。 It is also possible to output (reproduce) sound effects in the scene of document (5). In this case, the effect sound and the voice of the document (5) are reproduced superimposed on the sound of the BGM. For example, after or before the speech of document (5) is played back, a sound effect (not limited to this, the voice of the sub-document) can be set to be played back.
加えて、この効果音を再生させる回数や再生させる時間なども設定することができる。例えば図12において文書(5)の台詞音声が再生されている最中は繰り返し効果音を再生させるように設定することもできる。情報処理装置10は、ユーザからの入力に基づいて端末2から設定変更信号を受け取り、設定変更信号に基づきこれらの設定を変更し、記憶部12へ格納することができる。
In addition, it is also possible to set the number of times the sound effect is played and the time for which it is played. For example, in FIG. 12, it is possible to set so that the sound effect is repeatedly reproduced while the dialogue voice of the document (5) is being reproduced. The
このように、本実施形態では、コンテンツにおいてメインとなるストーリーに関連するメイン文書についてはそれぞれ待機時間の異なる優先条件を設定し、さらにストーリーとの関連性の低いサブ文書についてはストーリーの音声を損なうことなく、進行番号に応じた柔軟な演出効果を実現することができる。 As described above, in this embodiment, priority conditions with different wait times are set for main documents related to the main story in the content, and the voice of the story is spoiled for sub-documents with low relevance to the story. It is possible to realize a flexible effect according to the progression number without any need.
以上のように本発明に係るコンテンツ提供システム1によれば、視線情報と、該視線情報による所定の優先条件を利用することで、従来よりも適切且つ効果的に音声が付されたコンテンツを提供することができる。
As described above, according to the
また、本実施形態では電子漫画コンテンツについて説明したが、本コンテンツ提供システム1を小説、新聞、雑誌、学習教材などの電子書籍に加えて、テレビゲーム、ビデオゲーム、コンピュータゲームなどのゲームや、他のコンテンツに利用する場合にも本発明と同様の効果を得ることができる。
In the present embodiment, electronic comics content has been described, but in addition to electronic books such as novels, newspapers, magazines, and learning materials, the present
1 コンテンツ提供システム
2 端末
3 音声提供サーバ
10 情報処理装置
11 制御部
12 記憶部
13 通信部
90 端末(端末2)
91 制御部
92 記憶部
93 通信部
94 入力部
95 出力部
101 登録部
102 表示処理部
103 検出処理部
104 決定処理部
105 音声再生部
106 音声選択部
NW ネットワーク
W10 コンテンツ画像
1
91
Claims (9)
当該コンテンツ提供システムは、表示処理部と、視線検出部と、決定処理部と、音声提供部と、記憶部と、を備え、
前記記憶部は、文書に関する文書情報と、該文書に対応する音声に関する音声情報と、を格納し、
前記表示処理部は、前記文書を含んだ前記コンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信し、
前記視線検出部は、前記ユーザから前記文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、
前記決定処理部は、経時的に変化する前記視線情報に基づいて、前記視線が検出されてから前記音声が再生されるまでの待機時間を含んだ優先条件を前記文書ごとに決定し、
前記音声提供部は、前記視線情報と、前記優先条件と、前記音声情報と、に基づいて前記文書に対応する音声を前記端末へ送信する、
コンテンツ提供システム。 A content providing system for providing content,
The content providing system includes a display processing unit, a line-of-sight detection unit, a determination processing unit, an audio providing unit, and a storage unit,
the storage unit stores document information about a document and voice information about voice corresponding to the document;
The display processing unit performs display processing on the content including the document, and transmits the display processing result to a terminal used by a user;
The line-of-sight detection unit detects line-of-sight information including a line-of-sight position directed toward the document from the user and a length of time the line of sight stays at that position,
The determination processing unit determines, for each document, a priority condition including a waiting time from when the line of sight is detected to when the sound is reproduced, based on the line of sight information that changes over time;
The audio providing unit transmits audio corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the audio information.
content delivery system.
前記決定処理部は、前記視線が位置する対象文書の進行番号に対して該進行番号が次の候補文書における優先条件を第1優先条件、前記対象文書の進行番号に対して該進行番号が前の既読文書における優先条件を第2優先条件、それ以外の進行番号が付される未読文書における優先条件を第3優先条件、として決定する、
請求項1に記載のコンテンツ提供システム。 the document information includes a progress number indicating the order in which the user progresses through the document;
The determination processing unit sets a priority condition for the candidate document whose progress number is next to the progress number of the target document on which the line of sight is positioned as a first priority condition, and sets the progress number to precedence for the progress number of the target document. determine the priority condition for the read document as the second priority condition, and the priority condition for the unread document to which the progress number is attached as the third priority condition;
The content providing system according to claim 1.
前記未読文書における第3優先条件には、前記既読文書における第2優先条件よりも長い待機時間が設定される、
請求項2に記載のコンテンツ提供システム。 A waiting time shorter than the second priority condition for the read document is set for the first priority condition for the candidate document,
A waiting time longer than the second priority condition for the read document is set for the third priority condition for the unread document,
The content providing system according to claim 2.
前記記憶部は、前記進行番号に基づく前記サブ文書のサブ音声再生条件を格納し、
前記音声提供部は、前記視線情報と、前記サブ音声再生条件と、に基づいて、前記サブ文書の音声を前記端末へ送信する、
請求項2に記載のコンテンツ提供システム。 The document has a main document with which the progress number is associated and other sub-documents,
the storage unit stores a sub-audio playback condition for the sub-document based on the progress number;
The audio providing unit transmits the audio of the sub-document to the terminal based on the line-of-sight information and the sub-audio reproduction condition.
The content providing system according to claim 2.
前記視線検出部は、前記位置情報及び/又は領域情報を利用して、前記視線情報を検出する、
請求項1に記載のコンテンツ提供システム。 the document information is associated with position information indicating the position of the document in the display range of the content and area information indicating the display range of the document;
The line-of-sight detection unit detects the line-of-sight information using the position information and/or the area information.
The content providing system according to claim 1.
前記文書は、電子漫画の登場者における台詞を含み、
前記音声情報は、前記電子漫画の登場者における台詞音声を含む、
請求項1~5の何れかに記載のコンテンツ提供システム。 The content is electronic comic content,
The document includes dialogue in the characters of the electronic comic,
The voice information includes dialogue voices of characters in the electronic comic,
A content providing system according to any one of claims 1 to 5.
前記記憶部は、複数の前記台詞音声を格納し、
前記音声選択部は、前記ユーザからの入力に基づいて、同一の台詞に対し、複数の台詞音声の中から1の台詞音声を選択可能である、
請求項6に記載のコンテンツ提供システム。 The content providing system further comprises an audio selector,
the storage unit stores a plurality of the dialogue voices,
The voice selection unit is capable of selecting one line voice from among a plurality of line voices for the same line based on an input from the user.
The content providing system according to claim 6.
当該コンテンツ提供システムは、表示処理部と、視線検出部と、決定処理部と、音声提供部と、記憶部と、を備え、
前記記憶部が、文書に関する文書情報と、該文書に対応する音声に関する音声情報と、を格納し、
前記表示処理部が、前記文書を含んだ前記コンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信し、
前記視線検出部が、前記ユーザから前記文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、
前記決定処理部が、経時的に変化する前記視線情報に基づいて、前記視線が検出されてから前記音声が再生されるまでの待機時間を含んだ優先条件を前記文書ごとに決定し、
前記音声提供部が、前記視線情報と、前記優先条件と、前記音声情報と、に基づいて前記文書に対応する音声を前記端末へ送信するステップと、を含む、
コンテンツ提供方法。 A content providing method executed by a content providing system for providing content,
The content providing system includes a display processing unit, a line-of-sight detection unit, a determination processing unit, an audio providing unit, and a storage unit,
the storage unit stores document information about a document and voice information about voice corresponding to the document;
The display processing unit performs display processing on the content including the document, and transmits the display processing result to a terminal used by a user;
the line-of-sight detection unit detects line-of-sight information including a line-of-sight position directed to the document by the user and a length of stay of the line of sight at that position;
the decision processing unit, based on the line-of-sight information that changes over time, determines a priority condition for each of the documents, including a waiting time from detection of the line of sight to reproduction of the sound;
the audio providing unit transmitting audio corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the audio information;
Content Delivery Method.
コンピュータを、表示処理部と、視線検出部と、決定処理部と、音声提供部と、記憶部と、として機能させ、
前記記憶部は、文書に関する文書情報と、該文書に対応する音声に関する音声情報と、を格納し、
前記表示処理部は、前記文書を含んだ前記コンテンツを表示処理し、その表示処理結果をユーザが使用する端末へ送信し、
前記視線検出部は、前記ユーザから前記文書へ向けられる視線の位置、及びその位置における視線の滞在時間、を含んだ視線情報を検出し、
前記決定処理部は、経時的に変化する前記視線情報に基づいて、前記視線が検出されてから前記音声が再生されるまでの待機時間を含んだ優先条件を前記文書ごとに決定し、
前記音声提供部は、前記視線情報と、前記優先条件と、前記音声情報と、に基づいて前記文書に対応する音声を前記端末へ送信する、
コンテンツ提供プログラム。
A content providing program for providing content,
causing the computer to function as a display processing unit, a line-of-sight detection unit, a determination processing unit, an audio providing unit, and a storage unit;
the storage unit stores document information about a document and voice information about voice corresponding to the document;
The display processing unit performs display processing on the content including the document, and transmits the display processing result to a terminal used by a user;
The line-of-sight detection unit detects line-of-sight information including a line-of-sight position directed toward the document from the user and a length of time the line of sight stays at that position,
The determination processing unit determines, for each document, a priority condition including a waiting time from when the line of sight is detected to when the sound is reproduced, based on the line of sight information that changes over time;
The audio providing unit transmits audio corresponding to the document to the terminal based on the line-of-sight information, the priority condition, and the audio information.
content delivery program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075537A JP7307295B1 (en) | 2023-05-01 | 2023-05-01 | CONTENT PROVIDING SYSTEM, CONTENT PROVIDING METHOD, AND CONTENT PROVIDING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075537A JP7307295B1 (en) | 2023-05-01 | 2023-05-01 | CONTENT PROVIDING SYSTEM, CONTENT PROVIDING METHOD, AND CONTENT PROVIDING PROGRAM |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7307295B1 true JP7307295B1 (en) | 2023-07-11 |
Family
ID=87072489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023075537A Active JP7307295B1 (en) | 2023-05-01 | 2023-05-01 | CONTENT PROVIDING SYSTEM, CONTENT PROVIDING METHOD, AND CONTENT PROVIDING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7307295B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001265566A (en) * | 2000-03-15 | 2001-09-28 | Casio Comput Co Ltd | Electronic book device and sound reproduction system |
JP2007114878A (en) * | 2005-10-18 | 2007-05-10 | Taito Corp | Page recognition method for comics and comics information reproduction system |
JP2012133662A (en) * | 2010-12-22 | 2012-07-12 | Fujifilm Corp | Electronic comic viewer device, electronic comic browsing system, viewer program and recording medium recording viewer program |
US20130307771A1 (en) * | 2012-05-18 | 2013-11-21 | Microsoft Corporation | Interaction and management of devices using gaze detection |
JP2020046842A (en) * | 2018-09-18 | 2020-03-26 | 富士ゼロックス株式会社 | Information processing device and program |
US20210149693A1 (en) * | 2019-05-24 | 2021-05-20 | Huawei Technologies Co., Ltd. | Interface display method and apparatus, terminal, and storage medium |
-
2023
- 2023-05-01 JP JP2023075537A patent/JP7307295B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001265566A (en) * | 2000-03-15 | 2001-09-28 | Casio Comput Co Ltd | Electronic book device and sound reproduction system |
JP2007114878A (en) * | 2005-10-18 | 2007-05-10 | Taito Corp | Page recognition method for comics and comics information reproduction system |
JP2012133662A (en) * | 2010-12-22 | 2012-07-12 | Fujifilm Corp | Electronic comic viewer device, electronic comic browsing system, viewer program and recording medium recording viewer program |
US20130307771A1 (en) * | 2012-05-18 | 2013-11-21 | Microsoft Corporation | Interaction and management of devices using gaze detection |
JP2020046842A (en) * | 2018-09-18 | 2020-03-26 | 富士ゼロックス株式会社 | Information processing device and program |
US20210149693A1 (en) * | 2019-05-24 | 2021-05-20 | Huawei Technologies Co., Ltd. | Interface display method and apparatus, terminal, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10642574B2 (en) | Device, method, and graphical user interface for outputting captions | |
US10921979B2 (en) | Display and processing methods and related apparatus | |
JP5556911B2 (en) | Method, program, and system for creating content representations | |
US10007402B2 (en) | System and method for displaying content | |
JP2015179536A (en) | Electronic text manipulation and display | |
EP2702482A1 (en) | Method and system for secondary content distribution | |
KR20140028083A (en) | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities | |
CN109862293A (en) | Control method, equipment and the computer readable storage medium of terminal horn | |
KR102134882B1 (en) | Method for controlling contents play and an electronic device thereof | |
JP2013089195A (en) | Viewer device, server device, display control method, electronic comic editing method and program | |
CN111459363A (en) | Information display method, device, equipment and storage medium | |
US20190073817A1 (en) | Method of creating animated image based on key input, and user terminal for performing the method | |
US9600478B2 (en) | Display control apparatus, display control method, and program | |
KR100874289B1 (en) | Electronic pen-computer multimedia interactive system | |
JP7307295B1 (en) | CONTENT PROVIDING SYSTEM, CONTENT PROVIDING METHOD, AND CONTENT PROVIDING PROGRAM | |
US10915778B2 (en) | User interface framework for multi-selection and operation of non-consecutive segmented information | |
JP6924544B2 (en) | Cartoon data display system, method and program | |
CN111460180A (en) | Information display method and device, electronic equipment and storage medium | |
GB2490868A (en) | A method of playing an audio track associated with a document in response to tracking the gaze of a user | |
WO2021206408A1 (en) | Electronic device and methods for viewing webpages in extended reality environments | |
JP2022051500A (en) | Related information provision method and system | |
GB2490865A (en) | User device with gaze tracing to effect control | |
US11526652B1 (en) | Automated optimization of displayed electronic content imagery | |
CN115499672B (en) | Image display method, device, equipment and storage medium | |
JP6560842B2 (en) | Electronic book display system, electronic book display method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230509 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230629 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7307295 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |