JP6055535B1 - Concentration processing system - Google Patents

Concentration processing system Download PDF

Info

Publication number
JP6055535B1
JP6055535B1 JP2015237432A JP2015237432A JP6055535B1 JP 6055535 B1 JP6055535 B1 JP 6055535B1 JP 2015237432 A JP2015237432 A JP 2015237432A JP 2015237432 A JP2015237432 A JP 2015237432A JP 6055535 B1 JP6055535 B1 JP 6055535B1
Authority
JP
Japan
Prior art keywords
unit
content
concentration
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015237432A
Other languages
Japanese (ja)
Other versions
JP2017103702A (en
Inventor
裕之 日向
裕之 日向
祥一 八谷
祥一 八谷
中村 光宏
光宏 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GAIA SYSTEM SOLUTIONS Inc
Original Assignee
GAIA SYSTEM SOLUTIONS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAIA SYSTEM SOLUTIONS Inc filed Critical GAIA SYSTEM SOLUTIONS Inc
Priority to JP2015237432A priority Critical patent/JP6055535B1/en
Application granted granted Critical
Publication of JP6055535B1 publication Critical patent/JP6055535B1/en
Publication of JP2017103702A publication Critical patent/JP2017103702A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】集中度の利用を容易にするための仕組みを有する集中度処理システムを提供する。【解決手段】集中度処理システムを構成するソフトウェアは、エンジン部501、ツール部503、インターフェース部502に機能を分化させている。エンジン部501は、撮像装置411が出力する画像データストリームからベクトルデータ等の基本的なデータを生成する。ツール部503は、エンジン部501が出力するデータに基づいて、集中度等の、顧客システム505に対して有用なデータを算出する。また、集中度とは別に、コンテンツ102の様々な情報や、ユーザー101を特定する情報等も、ツール部503が出力する。インターフェース部502は、エンジン部501から出力されるデータをツール部503に引き渡したり、ツール部503から出力されるデータを顧客システム505へ引き渡す等の、データの授受を管理する。【選択図】図5Provided is a concentration processing system having a mechanism for facilitating use of concentration. Software constituting a concentration processing system has functions divided into an engine unit, a tool unit, and an interface unit. The engine unit 501 generates basic data such as vector data from the image data stream output from the imaging device 411. The tool unit 503 calculates useful data for the customer system 505 such as the degree of concentration based on the data output from the engine unit 501. In addition to the degree of concentration, the tool unit 503 outputs various information of the content 102, information for specifying the user 101, and the like. The interface unit 502 manages the exchange of data such as passing data output from the engine unit 501 to the tool unit 503 and passing data output from the tool unit 503 to the customer system 505. [Selection] Figure 5

Description

本発明は、コンピューターや電子機器等が利用者に提供するコンテンツに対し、利用者がコンテンツに示す集中度に関する情報を検出し、利用する、集中度処理システムに関する。   The present invention relates to a concentration processing system that detects and uses information related to the concentration level indicated by a user for content provided to the user by a computer, an electronic device, or the like.

テレビジョン放送(以下「TV放送」)において放送される映像コンテンツが、どれだけ視聴者に視聴されているのかを示す指標として、従来から「世帯視聴率」が用いられている。TV放送における世帯視聴率の計測は、サンプルとなる家庭に視聴率を測定するための機器を設置し、その機器が、テレビジョン受像機(以下「TV」)がオン状態で表示しているチャンネルに関する情報をほぼリアルタイムで集計拠点へ送信する。すなわち世帯視聴率とは、視聴時間と視聴チャンネルに関する情報を集計した結果であり、世帯視聴率という情報から視聴者がどのような状態で番組(映像コンテンツ)を視聴したのかはわからない。
例えば、視聴者がTV番組に対し、画面を注視せずラジオのように聞き流すような視聴形態である場合には、当該番組は視聴者にとって集中した状態で視聴されていないこととなる。このような視聴形態では、TV番組に挟まれるコマーシャル(以下「CM」)の宣伝効果はあまり期待できない。
Conventionally, “household audience rating” is used as an index indicating how much video content broadcast in television broadcasting (hereinafter “TV broadcasting”) is viewed by viewers. The household audience rating in TV broadcasting is measured by installing a device for measuring the audience rating in a sample home, and the device is a channel that is displayed when a television receiver (hereinafter “TV”) is on. Information about the information is sent to the aggregation base in near real time. In other words, the household audience rating is a result of totaling information on viewing time and viewing channel, and it is not known in what state the viewer has viewed the program (video content) from the information of household audience rating.
For example, when the viewer is watching the TV program without listening to the screen and listening like a radio, the program is not watched in a concentrated state for the viewer. In such a viewing mode, the advertising effect of a commercial (hereinafter referred to as “CM”) sandwiched between TV programs cannot be expected so much.

視聴者がTV番組をどの程度集中して視聴しているのかを知るための技術が、幾つか検討されている。
特許文献1には、TV番組に対し、視聴者がどの程度集中しているのかを「集中度」と定義し、その集中度を習得し、利用する技術内容が開示されている。
特許文献2には、2個の撮像素子を用いて、ユーザーの注視状態(集中度に等しい)を評価するための技術内容が開示されている。
特許文献3には、1個の撮像素子を用いて、TV番組ではなく、端末装置を用いた試験における、受験者の集中度を評価するための技術内容が開示されている。
Several techniques for knowing how concentrated a viewer is watching a TV program have been studied.
Japanese Patent Laid-Open No. 2004-151867 discloses a technical content that defines how much a viewer is concentrated on a TV program as a “concentration”, learns the concentration, and uses it.
Patent Document 2 discloses a technical content for evaluating a user's gaze state (equal to the degree of concentration) using two image sensors.
Patent Document 3 discloses a technical content for evaluating a concentration degree of a test taker in a test using a terminal device, not a TV program, using one image sensor.

特開2003−111106号公報JP 2003-111106 A 特開2015−82247号公報Japanese Patent Laying-Open No. 2015-82247 米国特許出願公開第2015/0044649号明細書US Patent Application Publication No. 2015/0044649

前述の特許文献3に示されるように、視聴者の集中度とは、対象となるコンテンツは必ずしもTV番組に限らない。あらゆるコンテンツが対象となる。ここで、オンライン若しくはオフラインにて、コンピューターや電子機器を介して提供される文字列、音声、静止画像、映像(動画)、またこれらが組み合わされたプレゼンテーションやゲーム等の、対象者が理解可能な内容にて享受する情報を、コンテンツ(contents)と総称する。またこれ以降、本明細書では、コンテンツを享受及び/または利用する者を、視聴者ではなくユーザーと総称する。   As shown in the above-mentioned patent document 3, the concentration of viewers is not necessarily limited to TV programs. All content is targeted. Here, on-line or off-line, the target person can understand character strings, audio, still images, video (moving images) provided through computers and electronic devices, and presentations and games that combine these. Information enjoyed by contents is generically referred to as contents. Further, hereinafter, in this specification, persons who enjoy and / or use content are collectively referred to as users, not viewers.

これまで、コンテンツに対するユーザーの集中度を測定する技術は、例えば前述の特許文献1、2及び3にあるように、幾つか提案されているが、ユーザーから測定した集中度をどのように利用するかについては、あまり議論がされていなかった。   Until now, several techniques for measuring the degree of concentration of a user with respect to content have been proposed, for example, as described in Patent Documents 1, 2, and 3 described above, but how to use the degree of concentration measured by the user. There wasn't much discussion about that.

本発明はかかる課題に鑑みてなされたものであり、集中度の利用を容易にするための仕組みを有する集中度処理システムを提供することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide a concentration processing system having a mechanism for facilitating use of the concentration.

上記課題を解決するために、本発明集中度処理システムは、コンテンツを表示する表示部と、表示部を見るユーザーの顔を撮影可能な方向に設置される撮像装置を備え、更にエンジンコア部と該エンジンコア部以外のソフトウェア機能を有するエンジン部とからなり、撮像装置から出力される画像データストリームからユーザーの顔の向き及びユーザーの視線の向きを示すベクトルデータを出力するエンジン部を備える。
また、ベクトルデータからユーザーが表示部に表示されているコンテンツに対する集中度を算出する集中度算出機能を有する第一ツール部と、ベクトルデータ及び/又は集中度を所定の情報処理装置へ出力する入出力制御部と、を備える。
そして、エンジンコア部は、ユーザーの顔が存在するか否かを検出し、ユーザーの顔の三次元イメージから前記ユーザーの顔の抽出点の座標情報を出力し、エンジンコア部以外のソフトウェア機能を有するエンジン部は、ユーザーの顔の向き及びユーザーの視線の向きを示すベクトルデータ、及び該ベクトルデータの時間軸上の揺らぎである変化量を算出し、第一ツール部は、ユーザーが表示部に表示されているコンテンツを注視しているか否かを所定の範囲を有するデータとして出力する
In order to solve the above-described problem, the concentration processing system of the present invention includes a display unit that displays content, an imaging device that is installed in a direction in which a face of a user who views the display unit can be photographed , and an engine core unit. The engine unit has a software function other than the engine core unit, and includes an engine unit that outputs vector data indicating the direction of the user's face and the direction of the user's line of sight from the image data stream output from the imaging apparatus.
In addition, the first tool unit having a concentration level calculation function for calculating the concentration level of the content displayed on the display unit by the user from the vector data, and an input for outputting the vector data and / or the concentration level to a predetermined information processing apparatus. An output control unit .
The engine core unit detects whether the user's face exists, outputs coordinate information of the user's face extraction point from the three-dimensional image of the user's face, and performs software functions other than the engine core unit. The engine unit has vector data indicating the orientation of the user's face and the direction of the user's line of sight, and the amount of change that is fluctuation on the time axis of the vector data. Whether or not the displayed content is being watched is output as data having a predetermined range .

本発明により、集中度の利用を容易にするための仕組みを有する集中度処理システムを提供できる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
The present invention can provide a concentration processing system having a mechanism for facilitating the use of concentration.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本実施形態に係る集中度処理システムにおける、ユーザーの集中度の仕組みを説明する概略図である。It is the schematic explaining the mechanism of the user's concentration degree in the concentration degree processing system which concerns on this embodiment. ディスプレイの種類とカメラのバリエーションを示す図である。It is a figure which shows the kind of display, and the variation of a camera. ディスプレイの種類とカメラが装着される配置関係を示す図である。It is a figure which shows the arrangement | positioning relationship in which the kind of display and a camera are mounted | worn. 集中度処理システムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a concentration degree processing system. 本発明の第一の実施形態に係る集中度処理システムのソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of the concentration processing system which concerns on 1st embodiment of this invention. 本発明の第二の実施形態に係る集中度処理システムの実装例におけるソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function in the implementation example of the concentration processing system which concerns on 2nd embodiment of this invention. 本発明の第三の実施形態に係る集中度処理システムの実装例におけるソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function in the implementation example of the concentration processing system which concerns on 3rd embodiment of this invention. 本発明の第四の実施形態に係る集中度処理システムの実装例におけるソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function in the example of mounting of the concentration processing system which concerns on 4th embodiment of this invention. 本発明の第五の実施形態に係る集中度処理システムの実装例におけるソフトウェア機能を示すブロック図と、顧客システムのデータベースを構成するテーブルの、フィールド構成の一例を示す図である。It is a block diagram which shows the software function in the implementation example of the concentration degree processing system which concerns on 5th embodiment of this invention, and a figure which shows an example of the field structure of the table which comprises the database of a customer system. 本発明の第五の実施形態に係る集中度処理システムにおける、ユーザーの属性情報を推定する処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process which estimates a user's attribute information in the concentration processing system which concerns on 5th embodiment of this invention. 本発明の第六の実施形態に係る集中度処理システムの実装例におけるソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function in the implementation example of the concentration processing system which concerns on 6th embodiment of this invention. 動画再生装置にて動画を再生するユーザーの、時間経過に伴う集中度の変動を示すグラフと、動画再生装置が動画の再生を一時停止して再度再生を行う過程を示すタイムチャートである。It is the graph which shows the fluctuation | variation of the concentration degree with the passage of time of the user who reproduces a moving image with a moving image reproducing apparatus, and the time chart which shows the process in which a moving image reproducing apparatus pauses reproduction | regeneration of a moving image and reproduces again. 本発明の第七の実施形態に係る集中度処理システムの実装例におけるソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function in the example of mounting of the concentration processing system which concerns on 7th embodiment of this invention.

本実施形態に係る集中度処理システムは、特許文献3に開示されている集中度の測定技術を利用する。その上で、集中度処理システムは、様々な利用形態が想定される集中度について、ソフトウェアの開発と利用を容易にするフレームワークを提供する。
なお、本実施形態における集中度処理システムでは、視覚を利用するコンテンツを対象とする。したがって、音声のみのコンテンツは、本実施形態の集中度処理システムにおける集中度の測定及び利用の対象外である。
The concentration processing system according to the present embodiment uses the concentration measurement technique disclosed in Patent Document 3. In addition, the concentration processing system provides a framework that facilitates the development and use of software with respect to the concentration that is assumed to be in various usage forms.
Note that the concentration processing system in the present embodiment targets content that uses vision. Therefore, the content of only audio is not subject to the measurement and use of the concentration level in the concentration level processing system of this embodiment.

[集中度について]
図1A及び図1Bは、本実施形態に係る集中度処理システムにおける、ユーザーの集中度の仕組みを説明する概略図である。
図1Aにおいて、ユーザー101はコンテンツ102を表示しているディスプレイ103を注視している。ディスプレイ103のすぐ上にはカメラ104が装着されている。カメラ104はディスプレイ103の前に存在するユーザー101の顔を撮影可能な方向に向けられている。カメラ104には、図示しない(図4以降で後述する)情報処理装置が接続されている。情報処理装置は、カメラ104から得られる画像データから、ユーザー101の顔の向き及び/又は視線がディスプレイ103の方向に向いているか否かを検出し、ユーザー101がコンテンツ102に注視しているか否かを、0から1まで、あるいは0から255まで、または0から1023まで等、所定の範囲を有する値のデータで出力する。この値が集中度である。
[About concentration]
1A and 1B are schematic diagrams for explaining a mechanism of user concentration in the concentration processing system according to the present embodiment.
In FIG. 1A, the user 101 is watching the display 103 displaying the content 102. A camera 104 is mounted immediately above the display 103. The camera 104 is directed in a direction in which the face of the user 101 existing in front of the display 103 can be photographed. An information processing apparatus (not shown) (described later in FIG. 4 and later) is connected to the camera 104. The information processing apparatus detects from the image data obtained from the camera 104 whether or not the face direction and / or line of sight of the user 101 is in the direction of the display 103, and whether or not the user 101 is gazing at the content 102. Are output as data having a value having a predetermined range such as 0 to 1, 0 to 255, or 0 to 1023. This value is the degree of concentration.

図1Bにおいて、ユーザー101はコンテンツ102を表示しているディスプレイ103を注視していない。カメラ104に接続されている情報処理装置は、カメラ104から得られる画像データから、図1Aにおける集中度よりも低い値の集中度を出力する。
このように、本実施形態に係る集中度処理システムは、ユーザー101の顔の向き及び/又は視線がコンテンツ102を表示しているディスプレイ103に向かっているか否かを、カメラ104から得られる画像データから算出する。
In FIG. 1B, the user 101 is not gazing at the display 103 displaying the content 102. The information processing apparatus connected to the camera 104 outputs a concentration level lower than the concentration level in FIG. 1A from the image data obtained from the camera 104.
As described above, the concentration processing system according to the present embodiment determines whether or not the face direction and / or line of sight of the user 101 is toward the display 103 displaying the content 102, and the image data obtained from the camera 104. Calculate from

図2A、図2B及び図2Cは、ディスプレイ103の種類とカメラ104のバリエーションを示す図である。
図3A及び図3Bは、ディスプレイ103の種類とカメラ104が装着される配置関係を示す図である。
図2Aは、据え置き型のLCDディスプレイ201に、外付けのUSBタイプwebカメラ202が装着されている例である。
図2Bは、ノートパソコン203のLCDディスプレイ204の枠に、webカメラ205が埋設されている例である。
図2Cは、スマートフォン等の携帯型無線端末206のLCDディスプレイ207の枠に、自分撮り用インカメラ208が埋設されている例である。
これら図2A、図2B及び図2Cに共通する点は、カメラ104がディスプレイ103の中心線近傍に設けられている点である。
2A, 2B, and 2C are diagrams showing the types of the display 103 and variations of the camera 104. FIG.
3A and 3B are diagrams illustrating the types of the display 103 and the arrangement relationship in which the camera 104 is mounted.
FIG. 2A is an example in which an external USB type web camera 202 is mounted on a stationary LCD display 201.
FIG. 2B shows an example in which a web camera 205 is embedded in the frame of the LCD display 204 of the notebook computer 203.
FIG. 2C is an example in which a self-portrait in-camera 208 is embedded in the frame of the LCD display 207 of the portable wireless terminal 206 such as a smartphone.
2A, 2B, and 2C are that the camera 104 is provided in the vicinity of the center line of the display 103. FIG.

図3Aは、図2A及び図2Bに対応する、横型のディスプレイ103aにおける、カメラ104の最適な配置位置の領域を示す図である。
図3Bは、図2Cに対応する、縦型のディスプレイ103aにおける、カメラ104の最適な配置位置の領域を示す図である。
図3Aのディスプレイ103a、及び図3Bのディスプレイ103b、すなわちディスプレイが横型、縦型の何れの場合でも、ディスプレイ103a及び103bの上下の辺の、中心線L302及びL304を通過する領域301a、301b、303a及び303bが、カメラ104がユーザー101の顔と視線を無調整で正しく捕捉できる位置である。カメラ104が中心線L302及びL304の近傍に配置されていれば、ユーザー101の顔がディスプレイ103a及び103bの真正面からずれた位置に存在していても、ディスプレイ103a及び103bからユーザー101の顔と視線の角度を無調整で正しく把握できる。
FIG. 3A is a diagram illustrating a region of an optimal arrangement position of the camera 104 in the horizontal display 103a corresponding to FIGS. 2A and 2B.
FIG. 3B is a diagram illustrating an area of an optimal arrangement position of the camera 104 in the vertical display 103a corresponding to FIG. 2C.
3A and the display 103b of FIG. 3B, that is, whether the display is a horizontal type or a vertical type, regions 301a, 301b, and 303a passing through the center lines L302 and L304 on the upper and lower sides of the displays 103a and 103b. And 303b are positions where the camera 104 can correctly capture the face and line of sight of the user 101 without adjustment. If the camera 104 is arranged in the vicinity of the center lines L302 and L304, even if the face of the user 101 exists at a position shifted from the front in front of the displays 103a and 103b, the face and line of sight of the user 101 from the displays 103a and 103b. The angle can be correctly grasped without adjustment.

なお、カメラ104がこれらの領域から外れる位置に設置される場合は、ユーザー101の顔と視線がディスプレイ103に正しく向かっているか否かを検出するために、予めユーザー101の顔と視線がディスプレイ103に正しく向かっている時の、カメラ104から見たユーザー101の顔と視線の向きの情報を検出して、不揮発性ストレージ406(図4参照)等に記憶しておくとよい。   When the camera 104 is installed at a position outside these areas, the user's 101 face and line of sight are displayed in advance on the display 103 in order to detect whether the face and line of sight of the user 101 are correctly facing the display 103. It is preferable to detect information on the face and line-of-sight direction of the user 101 viewed from the camera 104 when facing the camera and store it in the nonvolatile storage 406 (see FIG. 4) or the like.

[集中度処理システム:ハードウェア構成]
図4は、集中度処理システム401のハードウェア構成を示すブロック図である。
クライアント402は一般的なコンピューターであり、CPU403、ROM404、RAM405、不揮発性ストレージ406、現在日時情報を出力するリアルタイムクロック(以下「RTC」)407、操作部408がバス409に接続されている。そして、集中度処理システム401において重要な役割を持つ表示部410(ディスプレイ103)と撮像装置411(カメラ104)もバス409に接続されている。
クライアント402はバス409に接続されたNIC(Network Interface Card)412を通じて、インターネット413を介してサーバー414と通信を行う。
サーバー414もまた一般的なコンピューターであり、CPU415、ROM416、RAM417、不揮発性ストレージ418、NIC419がバス420に接続されている。
[Centralized processing system: hardware configuration]
FIG. 4 is a block diagram illustrating a hardware configuration of the concentration processing system 401.
The client 402 is a general computer, and a CPU 403, a ROM 404, a RAM 405, a nonvolatile storage 406, a real-time clock (hereinafter “RTC”) 407 that outputs current date and time information, and an operation unit 408 are connected to the bus 409. A display unit 410 (display 103) and an imaging device 411 (camera 104) having an important role in the concentration processing system 401 are also connected to the bus 409.
The client 402 communicates with the server 414 via the Internet 413 through a NIC (Network Interface Card) 412 connected to the bus 409.
The server 414 is also a general computer, and a CPU 415, ROM 416, RAM 417, nonvolatile storage 418, and NIC 419 are connected to the bus 420.

なお、図4では一般的なクライアント・サーバーシステムを例示しているが、必ずしも集中度処理システム401にはインターネット413(ネットワーク)やサーバー414が必須ではない。後述する実施形態の中には、サーバー414やネットワークが存在しないスタンドアロンの装置もありうる。   Although FIG. 4 illustrates a general client / server system, the concentration processing system 401 does not necessarily require the Internet 413 (network) or the server 414. In the embodiments described later, there may be a stand-alone device without the server 414 or the network.

[第一実施形態:ソフトウェア機能の概要]
図5は、本発明の第一の実施形態に係る集中度処理システム401のソフトウェア機能を示すブロック図である。なお、図5のブロック図は集中度処理システム401において想定されるソフトウェア機能を上位概念で記述している。
集中度処理システム401は、撮像装置411、エンジン部501、インターフェース部502、ツール部503、コンテンツ再生部504、顧客システム505及び顧客ツール506よりなる。
[First Embodiment: Overview of Software Functions]
FIG. 5 is a block diagram showing software functions of the concentration processing system 401 according to the first embodiment of the present invention. The block diagram of FIG. 5 describes software functions assumed in the concentration level processing system 401 in a high-level concept.
The concentration processing system 401 includes an imaging device 411, an engine unit 501, an interface unit 502, a tool unit 503, a content reproduction unit 504, a customer system 505, and a customer tool 506.

撮像装置411から出力される画像データは、エンジン部501に供給される。エンジン部501は、撮像装置411から出力される画像データから、ユーザー101の顔の向き、ユーザー101の視線の向き、そしてそれらの動きを算出する。先ず、エンジン部501は撮像装置411から出力される画像データを静止画として捉え、周知のポリゴン処理等の三次元的解析処理を経て、ユーザー101の顔の存在を認識し、顔の向き、視線の向きをベクトルデータとして算出する。次に、静止画が時間軸上で連続することで動画データとして捉え、顔の向き及び視線の向きのベクトルデータが時間軸上でどのように変動したかを算出する。このような演算処理を経て、最終的にエンジン部501は、直交座標系または3次元極座標系等の3次元空間における、ユーザー101の顔の向きを示すベクトル、ユーザー101の視線の向きを示すベクトル、そしてこれらベクトルの時間軸上の揺らぎ、すなわち変動量を出力する。   Image data output from the imaging device 411 is supplied to the engine unit 501. The engine unit 501 calculates the orientation of the face of the user 101, the orientation of the line of sight of the user 101, and their movements from the image data output from the imaging device 411. First, the engine unit 501 recognizes the image data output from the imaging device 411 as a still image, undergoes a known three-dimensional analysis process such as polygon processing, recognizes the presence of the face of the user 101, and determines the face direction and line of sight. Is calculated as vector data. Next, the still image continues on the time axis to be captured as moving image data, and how the vector data of the face direction and the line-of-sight direction fluctuates on the time axis is calculated. After such arithmetic processing, the engine unit 501 finally has a vector indicating the orientation of the face of the user 101 and a vector indicating the orientation of the line of sight of the user 101 in a three-dimensional space such as an orthogonal coordinate system or a three-dimensional polar coordinate system. , And fluctuations on the time axis of these vectors, that is, fluctuation amounts are output.

エンジン部501の内部には、エンジンコア部507が備わっている。このエンジンコア部507は、エンジン部501が出力するベクトルデータ等の算出根拠として最低限必要な機能を担う。具体的には、例えば画像データ中にユーザー101の顔が存在するか否かを検出する機能と、ユーザー101の顔にポリゴン処理を施してそのベクトルデータを生成する機能である。
もし、ワンチップマイコン等の、演算能力と記憶容量が限られている低資源装置をクライアント402として使用する場合、クライアント402のソフトウェアとしてエンジン部501を実装することが困難である場合が想定される。そのような状況で、撮像装置411が出力する画像データを映像データストリームとしてインターネット413等のネットワークを介して連続的に顧客システム505へ送信すると、ネットワークに多大な負荷をかけてしまう。そこで、このような場合の対処として、通信のデータ量を削減するため、エンジン部501の中でも最低限必要な部分をエンジンコア部507として切り分け可能な形態にする。
An engine core unit 507 is provided inside the engine unit 501. The engine core unit 507 has a minimum necessary function as a basis for calculating vector data output from the engine unit 501. Specifically, for example, there are a function for detecting whether or not the face of the user 101 exists in the image data and a function for generating vector data by performing polygon processing on the face of the user 101.
If a low-resource device such as a one-chip microcomputer that has limited computing power and storage capacity is used as the client 402, it may be difficult to implement the engine unit 501 as software for the client 402. . In such a situation, if image data output from the imaging device 411 is continuously transmitted as a video data stream to the customer system 505 via a network such as the Internet 413, a great load is applied to the network. Therefore, as a countermeasure for such a case, in order to reduce the amount of communication data, a minimum necessary portion of the engine unit 501 is configured as an engine core unit 507.

エンジン部501又はエンジンコア部507から出力されるデータは、インターフェース部502に供給される。入出力制御部ともいえるインターフェース部502は、ツール部503が存在する場合にはツール部503とデータの入出力を行い、また顧客システム505に対してもデータの入出力を行う。
ツール部503は、エンジン部501またはエンジンコア部507が出力するデータ以外のデータをインターフェース部502に供給する。このツール部503は、クライアント402の実装形態に応じて様々な形態が想定される。ツール部503が存在しないクライアント402もあれば、複数のツール部503を有するクライアント402も存在しうる。図5では、典型的な例として、3種類のツール部503を例示している。
Data output from the engine unit 501 or the engine core unit 507 is supplied to the interface unit 502. The interface unit 502, which can be referred to as an input / output control unit, inputs / outputs data to / from the tool unit 503 when the tool unit 503 exists, and also inputs / outputs data to / from the customer system 505.
The tool unit 503 supplies data other than the data output from the engine unit 501 or the engine core unit 507 to the interface unit 502. Various forms of the tool unit 503 are assumed depending on the mounting form of the client 402. There may be a client 402 that does not include the tool unit 503, and there may also be a client 402 that includes a plurality of tool units 503. In FIG. 5, three types of tool parts 503 are illustrated as typical examples.

第一ツール部508は、多くのクライアント402に実装されることを想定される、集中度を算出する機能(ソフトウェアコンポーネントあるいはライブラリモジュール)である。第一ツール部508は、予めROM404または不揮発性ストレージ406に保持されている、表示部410(ディスプレイ103)の大きさ、また撮像装置411(カメラ104)の設置位置等の情報を基に、ユーザー101の顔の向きを示すベクトルとユーザー101の視線の向きを示すベクトルが、ユーザー101と表示部410とを結ぶベクトルに対してどれだけ角度がずれているかを算出する。この角度が、集中度を算出する基礎となるデータになる。そして、ベクトルの変動量を所定の閾値と比較して、集中度の基礎データに対する加減算を施し、最終的に0から1まで等、所定の範囲を有する値の集中度を算出する。
エンジン部501、エンジンコア部507、インターフェース部502、そしてこの第一ツール部508は、多くのクライアント402に共通して実装されることを想定して作られる、標準コンポーネントである。
The first tool unit 508 is a function (software component or library module) that calculates a concentration level that is assumed to be implemented in many clients 402. The first tool unit 508 is based on information such as the size of the display unit 410 (display 103) and the installation position of the imaging device 411 (camera 104), which is stored in the ROM 404 or the nonvolatile storage 406 in advance. It is calculated how much the angle between the vector indicating the direction of the face 101 and the vector indicating the direction of the line of sight of the user 101 is deviated from the vector connecting the user 101 and the display unit 410. This angle is the data that is the basis for calculating the degree of concentration. Then, the variation amount of the vector is compared with a predetermined threshold value, and addition / subtraction is performed on the basic data of the concentration level to finally calculate the concentration level of a value having a predetermined range such as 0 to 1.
The engine unit 501, the engine core unit 507, the interface unit 502, and the first tool unit 508 are standard components that are created assuming that they are commonly implemented in many clients 402.

第二ツール部509は、コンテンツ102の情報をインターフェース部502に供給する。例えば、ネットワークストレージ510またはローカルストレージ511に保持されているコンテンツ102をコンテンツ再生処理部512が再生している時、コンテンツ再生処理部512が現在再生しているコンテンツ102の再生時間または再生シーン等の情報を、コンテンツ102を一意に特定するコンテンツ情報と共にインターフェース部502に供給する。
第三ツール部513は、コンテンツ102以外の情報をインターフェース部502に供給する。例えば、RTC407が出力する現在日時情報や、不揮発性ストレージ406に保持されている、クライアント402を使用するユーザー101を一意に特定する利用者情報(以下「UID」)等である。
第二ツール部509と第三ツール部513は、クライアント402の要求仕様、そして実装形態に応じて追加又は削除されうる、オプションのコンポーネントである。
なお、顧客の要求仕様に対応するために用意されるカスタマイズコンポーネントは、インターフェース部502の外側に実装される。
The second tool unit 509 supplies information on the content 102 to the interface unit 502. For example, when the content playback processing unit 512 is playing back the content 102 held in the network storage 510 or the local storage 511, the playback time or playback scene of the content 102 currently played back by the content playback processing unit 512, etc. The information is supplied to the interface unit 502 together with content information that uniquely identifies the content 102.
The third tool unit 513 supplies information other than the content 102 to the interface unit 502. For example, current date and time information output by the RTC 407, user information (hereinafter referred to as “UID”) that is uniquely stored in the nonvolatile storage 406 and that uniquely identifies the user 101 using the client 402, and the like.
The second tool unit 509 and the third tool unit 513 are optional components that can be added or deleted according to the required specifications of the client 402 and the implementation form.
Note that the customization component prepared to meet the customer's required specifications is mounted outside the interface unit 502.

例えば、コンテンツ102が光ディスク等のローカルストレージ511に保持されている映像である場合は、第二ツール部509は最初にコンテンツ再生処理部512が再生しようとするコンテンツ102のコンテンツ情報をインターフェース部502に出力した後、コンテンツ再生処理部512が現在再生している映像の再生時間をインターフェース部502に出力する。そして、第三ツール部513は不揮発性ストレージ406に保持されている、クライアント402を使用するユーザー101を一意に特定する利用者情報をインターフェース部502に出力する。すると、インターフェース部502は第一ツール部508から得られる集中度と、第二ツール部509から得られるコンテンツ情報とコンテンツ102の再生時間と、第三ツール部513から得られる利用者情報を組み合わせて、特定のユーザー101におけるリアルタイムの集中度の情報として、顧客システム505に出力することができる。   For example, when the content 102 is a video held in the local storage 511 such as an optical disc, the second tool unit 509 first sends the content information of the content 102 that the content playback processing unit 512 intends to play back to the interface unit 502. After the output, the content playback processing unit 512 outputs the playback time of the video currently being played back to the interface unit 502. Then, the third tool unit 513 outputs user information that is stored in the nonvolatile storage 406 and uniquely identifies the user 101 who uses the client 402 to the interface unit 502. Then, the interface unit 502 combines the degree of concentration obtained from the first tool unit 508, the content information obtained from the second tool unit 509, the playback time of the content 102, and the user information obtained from the third tool unit 513. The information can be output to the customer system 505 as real-time information on the concentration level of the specific user 101.

インターフェース部502は、顧客システム505に対し、集中度又はこれに準じる情報を出力する。顧客システム505は、インターフェース部502から集中度又はこれに準じる情報を受信して、所定の処理を実行する。その際、顧客システム505は所定の処理の一部として、顧客ツール506を用いて、集中度又はこれに準じる情報を処理する。
なお、図5における顧客システム505及び顧客ツール506は、図4のサーバー414として実装される場合がある他、サーバー414及びネットワークを廃し、クライアント402に含める、すなわち、スタンドアロンの構成もあり得る。
The interface unit 502 outputs the degree of concentration or information according to this to the customer system 505. The customer system 505 receives a degree of concentration or information according to the degree of concentration from the interface unit 502 and executes a predetermined process. At this time, the customer system 505 uses the customer tool 506 as a part of the predetermined processing to process the degree of concentration or information equivalent thereto.
Note that the customer system 505 and the customer tool 506 in FIG. 5 may be implemented as the server 414 in FIG. 4, and the server 414 and the network may be eliminated and included in the client 402, that is, a stand-alone configuration may be used.

[第二実施形態:低資源装置における実装形態]
図6は、本発明の第二の実施形態に係る集中度処理システム601の実装例におけるソフトウェア機能を示すブロック図である。
図6に示す集中度処理システム601は、低資源装置をクライアント402として使用する場合を想定している。例えば、クライアント402が携帯型ゲーム機の場合、ゲームソフトウェアの実行にCPU403の演算能力やRAM405の容量等、計算機資源の大半が消費され、集中度の処理に十分な計算機資源を回す余裕がない場合が考えられる。このような状況では、クライアント402には集中度の演算処理として必要最小限のものを搭載することが好ましい。具体的には、エンジンコア部507とインターフェース部502のみをクライアント402に搭載する。エンジン部501、第一ツール部508等は顧客システム505であるサーバー414に搭載される。
[Second Embodiment: Implementation in Low Resource Device]
FIG. 6 is a block diagram showing software functions in an implementation example of the concentration processing system 601 according to the second embodiment of the present invention.
The concentration processing system 601 illustrated in FIG. 6 assumes a case where a low resource device is used as the client 402. For example, when the client 402 is a portable game machine, most of the computer resources such as the computing capacity of the CPU 403 and the capacity of the RAM 405 are consumed for executing the game software, and there is no room to run sufficient computer resources for the concentration processing. Can be considered. In such a situation, it is preferable that the client 402 is equipped with the minimum necessary processing for calculating the degree of concentration. Specifically, only the engine core unit 507 and the interface unit 502 are mounted on the client 402. The engine unit 501, the first tool unit 508, and the like are mounted on a server 414 that is a customer system 505.

[第三実施形態:エンジン部501、ツール部503のバリエーション]
図7A及び図7Bは、本発明の第三の実施形態に係る集中度処理システム601の実装例におけるソフトウェア機能を示すブロック図である。
図7Aに示す集中度処理システム701及び図7Bに示す集中度処理システム702は、図6の事例とは異なり、一般的なパソコン等におけるソフトウェア機能の実装を想定している。
図7Aの集中度処理システム701において、第一エンジン部703はエンジンコア部507を内蔵する。エンジンコア部507は、撮像装置411から受信した画像データから、ユーザー101の顔の三次元イメージを計算して、顔の抽出点(目、鼻、口などを特定する点)の座標情報を出力する。そして、第一エンジン部703の、エンジンコア部507以外のソフトウェア機能は、エンジンコア部507が出力した抽出点の座標情報から、ユーザー101の顔の向きや視線の向きのベクトル及びその変化量を算出し、インターフェース部502へ出力する。
[Third embodiment: Variation of engine unit 501 and tool unit 503]
7A and 7B are block diagrams showing software functions in an implementation example of the concentration processing system 601 according to the third embodiment of the present invention.
Unlike the case of FIG. 6, the concentration level processing system 701 shown in FIG. 7A and the concentration level processing system 702 shown in FIG. 7B are assumed to implement software functions in a general personal computer or the like.
In the concentration processing system 701 in FIG. 7A, the first engine unit 703 includes an engine core unit 507. The engine core unit 507 calculates a three-dimensional image of the face of the user 101 from the image data received from the imaging device 411, and outputs coordinate information of face extraction points (points that specify eyes, nose, mouth, etc.). To do. The software functions of the first engine unit 703 other than the engine core unit 507 are based on the coordinate information of the extraction points output by the engine core unit 507, and the vectors of the face direction and line-of-sight direction of the user 101 and the amount of change thereof. Calculate and output to the interface unit 502.

この第一エンジン部703に代えて、第二エンジン部704として、撮像装置411から得られる映像データから、ユーザー101の顔皮膚の直下に存在する静脈を撮影し、静脈が拡張、収縮する変動をデータとして抽出する機能に交換することが可能である。この第二エンジン部704も、第一エンジン部703と同様、エンジンコア部507を内蔵する。そして、第二エンジン部704の、エンジンコア部507以外のソフトウェア機能は、エンジンコア部507が出力した抽出点の一部(ユーザー101の顔の局部)の座標情報から、顔の局部の画像データをインターフェース部502へ出力する。顔の局部の画像データには、ユーザー101の顔皮膚の直下に存在する静脈が含まれる。エンジンコア部507は共通のまま、エンジンコア部507以外のソフトウェア機能を第一エンジン部703から第二エンジン部704に変更することで、顔と視線のベクトル及びその変化量を算出するソフトウェア機能が、顔の局部の画像データを出力するソフトウェア機能に変更できる。
そして、エンジン部501を第一エンジン部703から第二エンジン部704に交換した場合、ツール部503も第一ツール部508である集中度算出処理から、第四ツール部705として、静脈の変動データから脈拍を算出する処理に交換する必要が生じる。
Instead of the first engine unit 703, a second engine unit 704 is used as a second engine unit 704 to capture a vein that exists directly under the face skin of the user 101 from image data obtained from the imaging device 411, and the vein expands and contracts. It is possible to exchange for the function of extracting as data. Similarly to the first engine unit 703, the second engine unit 704 also includes an engine core unit 507. The software function of the second engine unit 704 other than the engine core unit 507 is based on the coordinate information of a part of the extracted points (the local part of the face of the user 101) output by the engine core unit 507, and the image data of the local part of the face. Is output to the interface unit 502. The image data of the local part of the face includes a vein that exists directly under the user's 101 face skin. While changing the software function other than the engine core unit 507 from the first engine unit 703 to the second engine unit 704, the software function for calculating the face and line-of-sight vector and the amount of change thereof is maintained while the engine core unit 507 remains common. It can be changed to a software function that outputs local image data of the face.
When the engine unit 501 is replaced from the first engine unit 703 to the second engine unit 704, the tool unit 503 is also used as the fourth tool unit 705 from the concentration degree calculation process that is the first tool unit 508. Therefore, it is necessary to replace the process for calculating the pulse from the above.

図7Bの集中度処理システム702において、エンジン部501は直交座標系または3次元極座標系等の3次元空間における、ユーザー101の顔の向きを示すベクトル、ユーザー101の視線の向きを示すベクトル、そしてこれらベクトルの時間軸上の揺らぎ、すなわち変動量を出力する。なお、エンジン部501にはエンジンコア部507が内蔵されており、エンジンコア部507は画像データ中にユーザー101の顔が存在するか否かを検出し、ユーザー101の顔にポリゴン処理を施してその3Dデータを生成する。そして、第一ツール部508はエンジン部501のデータを基に集中度算出処理を行う。この第一ツール部508に代えて、第五ツール部706として、エンジンコア部507から得られるユーザー101の顔の3Dデータから、ユーザー101の表情を解析する機能に交換することが可能である。   In the concentration processing system 702 of FIG. 7B, the engine unit 501 includes a vector indicating the orientation of the face of the user 101, a vector indicating the orientation of the line of sight of the user 101 in a three-dimensional space such as an orthogonal coordinate system or a three-dimensional polar coordinate system, Fluctuations on the time axis of these vectors, that is, fluctuation amounts are output. The engine unit 501 includes an engine core unit 507. The engine core unit 507 detects whether the face of the user 101 exists in the image data, and performs polygon processing on the face of the user 101. The 3D data is generated. Then, the first tool unit 508 performs a concentration degree calculation process based on the data of the engine unit 501. Instead of the first tool unit 508, a fifth tool unit 706 can be replaced with a function for analyzing the facial expression of the user 101 from the 3D data of the user 101's face obtained from the engine core unit 507.

[第四実施形態:集中度の代わりにベクトルデータをネットワークに送信]
図8は、本発明の第四の実施形態に係る集中度処理システム801の実装例におけるソフトウェア機能を示すブロック図である。
図8に示す集中度処理システム801は、図6に類似する、低資源装置をクライアント402として使用する場合を想定している。図6の場合と同様、低資源装置に集中度処理を搭載する場合、コンテンツの再生に低資源装置が有する計算機資源の大半が消費され、集中度の処理に十分な計算機資源を回す余裕がない場合が考えられる。このような状況では、クライアント402には集中度の演算処理として必要最小限のものを搭載することが好ましい。図8に示す、図6の集中度処理システム801との相違点は、エンジン部501とインターフェース部502、そして第二ツール部509、第三ツール部513をクライアント402に搭載する。集中度の算出を行う第一ツール部508は顧客システム505であるサーバー414に搭載させる。この場合、エンジン部501から出力される、直交座標系または3次元極座標系等の3次元空間における、ユーザー101の顔の向きを示すベクトル、ユーザー101の視線の向きを示すベクトル、そしてこれらベクトルの時間軸上の揺らぎ、すなわち変動量が、ネットワークを通じて顧客システム505へ出力される。
[Fourth embodiment: Send vector data to network instead of concentration]
FIG. 8 is a block diagram showing software functions in an implementation example of the concentration processing system 801 according to the fourth embodiment of the present invention.
The concentration processing system 801 shown in FIG. 8 assumes a case where a low resource apparatus similar to that in FIG. As in the case of FIG. 6, when the concentration processing is installed in the low resource device, most of the computer resources of the low resource device are consumed for content reproduction, and there is no room for using sufficient computer resources for the concentration processing. There are cases. In such a situation, it is preferable that the client 402 is equipped with the minimum necessary processing for calculating the degree of concentration. 8 differs from the concentration processing system 801 in FIG. 6 in that an engine unit 501, an interface unit 502, a second tool unit 509, and a third tool unit 513 are mounted on the client 402. The first tool unit 508 for calculating the degree of concentration is installed in the server 414 that is the customer system 505. In this case, a vector indicating the orientation of the face of the user 101, a vector indicating the direction of the line of sight of the user 101 in a three-dimensional space such as an orthogonal coordinate system or a three-dimensional polar coordinate system output from the engine unit 501, and The fluctuation on the time axis, that is, the fluctuation amount is output to the customer system 505 through the network.

顧客システム505のデータベース802には、第三ツール部513が出力する、RTC407から得られる現在日時情報、不揮発性ストレージ406に保持されている利用者情報、第二ツール部509が出力する、コンテンツ識別情報、コンテンツ102の現在再生時間またはシーン情報等、そしてエンジン部501が出力する、ユーザー101の顔の向きのベクトル、ユーザー101の視線のベクトル、これらベクトルの時間軸上の変動量、表示部410とユーザー101の顔との角度の差等の情報が蓄積される。
集中度の算出処理を行う第一ツール部508は、顧客システム505にて様々なデータ解析作業を実行する際に稼働する。
図8に示す集中度処理システム801は、顧客システム505のデータベース802に第一ツール部508の算出結果である集中度を格納せず、エンジン部501が出力する、集中度を算出するための根拠となるデータを格納することで、第一ツール部508のバージョンアップ等に即応できる。
In the database 802 of the customer system 505, the current date and time information obtained from the RTC 407 output from the third tool unit 513, the user information held in the nonvolatile storage 406, and the content identification output from the second tool unit 509 Information, current playback time of the content 102 or scene information, and the like, and the engine unit 501 outputs a vector of the face direction of the user 101, a vector of the line of sight of the user 101, a variation amount of these vectors on the time axis, and a display unit 410 And information such as the angle difference between the user 101 and the face of the user 101 is accumulated.
The first tool unit 508 that performs the concentration degree calculation process operates when various data analysis operations are executed in the customer system 505.
The concentration processing system 801 shown in FIG. 8 does not store the concentration as the calculation result of the first tool unit 508 in the database 802 of the customer system 505, but the basis for calculating the concentration that the engine unit 501 outputs. By storing the data, the first tool unit 508 can be immediately upgraded.

[第五実施形態:ユーザー101のカテゴライズ]
図9Aは、本発明の第五の実施形態に係る集中度処理システム901の実装例におけるソフトウェア機能を示すブロック図である。
図9に示す集中度処理システム901は、クライアント402として一般的なパソコン等を使用し、サーバー414を有するシステムを想定している。
顧客システム505のデータベース802には、インターフェース部502から、第一ツール部508が出力する集中度、第二ツール部509が出力する、コンテンツ識別情報、コンテンツ102の現在再生時間またはシーン情報等、第三ツール部513が出力する、RTC407から得られる現在日時情報、及び不揮発性ストレージ406に保持されている利用者情報等の情報が蓄積される。
顧客システム505は、顧客ツール506の一種としてクラスター分析処理部902を備える。クラスター分析処理部902は、データベース802に格納されているユーザー101毎の集中度の変化について、類似度を算出し、この類似度に基づいてユーザー101を幾つかのクラスターに分化させる。
[Fifth embodiment: categorization of user 101]
FIG. 9A is a block diagram showing software functions in an implementation example of the concentration processing system 901 according to the fifth embodiment of the present invention.
A concentration processing system 901 shown in FIG. 9 is assumed to be a system that uses a general personal computer or the like as the client 402 and has a server 414.
The database 802 of the customer system 505 stores, in the interface unit 502, the degree of concentration output from the first tool unit 508, the content identification information output from the second tool unit 509, the current playback time or scene information of the content 102, and the like. Information such as current date and time information obtained from the RTC 407 and user information held in the nonvolatile storage 406, which is output from the third tool unit 513, is accumulated.
The customer system 505 includes a cluster analysis processing unit 902 as a kind of customer tool 506. The cluster analysis processing unit 902 calculates the similarity for the change in the degree of concentration for each user 101 stored in the database 802, and differentiates the user 101 into several clusters based on the similarity.

図9Bは、顧客システム505のデータベース802を構成するテーブルの、フィールド構成の一例を示す図である。
データベース802には、ユーザーマスター903、集中度テーブル904、クラスターテーブル905が含まれる。
ユーザーマスター903は、UIDフィールド、性別フィールド、年齢フィールド、その他属性情報フィールドを有する。
UIDフィールドには、ユーザー101を一意に識別するユーザーID(UID)が格納される。
性別フィールドには、ユーザー101の性別が格納され、年齢フィールドにはユーザー101の年齢が格納される。
その他属性情報フィールドには、ユーザー101の住環境、未婚既婚、家族構成、就業就学等の、性別と年齢以外のユーザー101に纏わる情報が格納される。
FIG. 9B is a diagram illustrating an example of a field configuration of a table configuring the database 802 of the customer system 505.
The database 802 includes a user master 903, a concentration level table 904, and a cluster table 905.
The user master 903 has a UID field, a sex field, an age field, and other attribute information fields.
The UID field stores a user ID (UID) that uniquely identifies the user 101.
The gender field stores the gender of the user 101, and the age field stores the age of the user 101.
In the other attribute information field, information related to the user 101 other than the gender and age, such as the living environment of the user 101, unmarried marriage, family composition, employment and schooling, is stored.

集中度テーブル904は、UIDフィールド、コンテンツIDフィールド、コンテンツ再生日時フィールド、コンテンツ再生時間又はコンテンツチャプターIDフィールド、集中度フィールドを有する。
UIDフィールドは、ユーザーマスター903の同名フィールドと同じである。
コンテンツIDフィールドには、コンテンツ102を一意に識別するためのコンテンツIDが格納される。
コンテンツ再生日時フィールドには、ユーザー101がコンテンツ102を再生した日時が格納される。殆どの場合、コンテンツ再生日時は、クライアント402が内蔵するRTC407が出力する現在日時情報である。
コンテンツ再生時間又はコンテンツチャプターIDフィールドには、コンテンツ102の再生時間、またはコンテンツ102のシーンやチャプターを示す情報、すなわちコンテンツ102の再生位置情報が格納される。
集中度フィールドには、コンテンツ再生時間又はコンテンツチャプターIDフィールドに格納されるコンテンツ102の再生位置情報における、ユーザー101の集中度が格納される。
Concentration table 904 includes UID field, the content ID field, content playback date and time field, content playback time or the content chapters ID field, the degree of concentration fields.
The UID field is the same as the field with the same name in the user master 903.
In the content ID field, a content ID for uniquely identifying the content 102 is stored.
The content playback time field, date and time when the user 101 reproduces the content 102 is stored. In most cases, content playback time is the current date and time information RTC407 which incorporates the client 402 outputs.
The content playback time or content chapter ID field stores the playback time of the content 102 or information indicating the scene or chapter of the content 102, that is, the playback position information of the content 102.
The concentration degree field stores the concentration degree of the user 101 in the reproduction position information of the content 102 stored in the content reproduction time or the content chapter ID field.

クラスターテーブル905は、UIDフィールド、コンテンツIDフィールド、コンテンツ102再生日時フィールド、集中度空間内座標フィールド、クラスターIDフィールド、推定性別フィールド、推定年齢フィールド、その他推定属性情報フィールド、推定適合率フィールドを有する。
UIDフィールド、コンテンツIDフィールド及びコンテンツ102再生日時フィールドは、それぞれ集中度テーブル904の同名フィールドと同じである。
集中度空間内座標フィールドには、コンテンツ102の再生地点情報とユーザー101の集中度を示す仮想的多次元座標空間内における、ユーザー101の位置情報が格納される。
クラスターIDフィールドには、クラスター分析処理部902によって仮想的多次元座標空間内に形成される、集中度の変動傾向が類似するユーザー101同士の集合体を一意に識別するためのクラスターIDが格納される。
The cluster table 905 includes a UID field, a content ID field, a content 102 reproduction date / time field, a concentration space coordinate field, a cluster ID field, an estimated gender field, an estimated age field, other estimated attribute information fields, and an estimated matching rate field.
The UID field, the content ID field, and the content 102 playback date / time field are the same as the field with the same name in the concentration degree table 904, respectively.
The coordinate field in the concentration degree space stores the reproduction point information of the content 102 and the position information of the user 101 in the virtual multidimensional coordinate space indicating the concentration degree of the user 101.
The cluster ID field stores a cluster ID for uniquely identifying an aggregate of users 101 having similar concentration tendency variation, which is formed in the virtual multidimensional coordinate space by the cluster analysis processing unit 902. The

推定性別フィールドには、クラスター分析処理部902による分析の結果として推定した、ユーザー101の推定性別が格納される。
推定年齢フィールドには、クラスター分析処理部902による分析の結果として推定した、ユーザー101の推定年齢が格納される。
その他推定属性情報フィールドには、クラスター分析処理部902による分析の結果として推定した、ユーザー101の推定住環境、推定未婚既婚、推定家族構成、推定就業就学等の、性別と年齢以外のユーザー101に纏わる推定情報が格納される。
推定適合率フィールドには、当該ユーザー101の過去の推定結果と照らし合わせて、どの程度合致しているかを示す適合率が格納される。この推定適合率は、クラスター分析処理部902による推定結果の確からしさでもある。
In the estimated gender field, the estimated gender of the user 101 estimated as a result of the analysis by the cluster analysis processing unit 902 is stored.
In the estimated age field, the estimated age of the user 101 estimated as a result of the analysis by the cluster analysis processing unit 902 is stored.
In the other estimated attribute information field, the user 101 other than the gender and age, such as the estimated living environment of the user 101, the estimated unmarried marriage, the estimated family composition, and the estimated employment attendance estimated as the result of the analysis by the cluster analysis processing unit 902 Stored estimation information is stored.
In the estimated precision ratio field, a precision ratio indicating how much the user 101 matches with the past estimation result is stored. This estimated relevance rate is also the probability of the estimation result by the cluster analysis processing unit 902.

図10は、本発明の第五の実施形態に係る集中度処理システム901における、ユーザー101の属性情報を推定する処理の流れを示すフローチャートである。本フローチャートにおける処理は、データベース802に所定のコンテンツ102における各ユーザー101の集中度が格納された時点で実行される。
処理を開始すると(S1001)、クラスター分析処理部902は集中度テーブル904とユーザーマスター903を参照して、性別・年齢や他の属性情報が既知のユーザー101について、仮想的な集中度空間内における座標を計算する(S1002)。
次にクラスター分析処理部902は、集中度空間内における各々のユーザー101同士の距離を計算し、その距離が近いユーザー101同士をカテゴライズするクラスターIDを付与する(S1003)。このクラスター分析には、ウォード法、K−means++法等、既知のアルゴリズムを利用する。
次にクラスター分析処理部902は、クラスターIDを付与したクラスター毎にクラスター内の平均となる位置、すなわち重心を求める(S1004)。
次にクラスター分析処理部902は、クラスターIDを付与したクラスターに属するユーザー101の性別や年齢等の属性情報について、統計処理に必要な出現頻度や分散を算出する(S1005)。
ステップS1005の時点で、性別・年齢他の属性情報が既知のユーザー101について、クラスタリングが完了する。
FIG. 10 is a flowchart showing a flow of processing for estimating attribute information of the user 101 in the concentration processing system 901 according to the fifth embodiment of the present invention. The processing in this flowchart is executed when the concentration level of each user 101 in the predetermined content 102 is stored in the database 802.
When the processing is started (S1001), the cluster analysis processing unit 902 refers to the concentration level table 904 and the user master 903, and the user 101 whose gender / age and other attribute information is known in the virtual concentration level space. The coordinates are calculated (S1002).
Next, the cluster analysis processing unit 902 calculates the distance between the users 101 in the concentration level space, and assigns a cluster ID for categorizing the users 101 whose distances are close to each other (S1003). For this cluster analysis, a known algorithm such as the Ward method or the K-means ++ method is used.
Next, the cluster analysis processing unit 902 obtains an average position in the cluster, that is, the center of gravity for each cluster to which the cluster ID is assigned (S1004).
Next, the cluster analysis processing unit 902 calculates the appearance frequency and variance necessary for statistical processing for the attribute information such as the sex and age of the user 101 belonging to the cluster to which the cluster ID is assigned (S1005).
At step S1005, clustering is completed for the user 101 whose gender / age and other attribute information is known.

次にクラスター分析処理部902は、集中度テーブル904とユーザーマスター903を参照して、性別・年齢や他の属性情報が不明のユーザー101について、集中度空間内における座標を計算する(S1006)。
次にクラスター分析処理部902は、ステップS1006で算出した座標情報と、各クラスターIDの重心との距離を計算して、最も重心との距離が短い、すなわち重心が近いクラスターのクラスターIDを、当該ユーザー101に付与する(S1007)。
最後にクラスター分析処理部902は、ステップS1006にて算出した分散を参照して、性別・年齢や他の属性情報が不明のユーザー101が属するクラスターとの距離から、当該ユーザー101の性別・年齢や他の属性情報を推定して(S1008)、一連の処理を終了する(S1009)。
Next, the cluster analysis processing unit 902 refers to the concentration level table 904 and the user master 903, and calculates the coordinates in the concentration level space for the user 101 whose gender / age and other attribute information are unknown (S1006).
Next, the cluster analysis processing unit 902 calculates the distance between the coordinate information calculated in step S1006 and the center of gravity of each cluster ID, and determines the cluster ID of the cluster with the shortest distance to the center of gravity, that is, the cluster with the closest center of gravity. This is given to the user 101 (S1007).
Finally, the cluster analysis processing unit 902 refers to the variance calculated in step S1006, and determines the gender / age of the user 101 based on the distance from the cluster to which the user 101 whose gender / age and other attribute information is unknown belongs. Other attribute information is estimated (S1008), and a series of processing ends (S1009).

ユーザー101の集中度を、ユーザー101の性別・年齢や他の属性情報と共にサーバー414に集めることで、集中度の傾向をユーザー101の属性情報でクラスタリングすることが可能になる。すると、逆に、性別・年齢や他の属性情報が不明なユーザー101の集中度のデータを、既知のクラスター化された集中度の傾向と比較して類似度を算出することで、当該ユーザー101がどのクラスターに属するのかを類推することが可能になる。年齢等の推定は、当該クラスターにおける分散を考慮して、クラスターの重心とユーザー101との距離を参照することで、推定を行う。
更に、コンテンツ102毎の、当該ユーザー101の属性情報の推定を繰り返すことで、属性情報の推定の精度を高めることも可能になる。
By collecting the concentration level of the user 101 in the server 414 together with the gender / age of the user 101 and other attribute information, the tendency of the concentration level can be clustered with the attribute information of the user 101. Then, conversely, by calculating the degree of similarity by comparing the concentration data of the user 101 whose gender / age and other attribute information are unknown with a known clustered concentration degree tendency, the user 101 It is possible to analogize which cluster belongs to. The age and the like are estimated by referring to the distance between the center of gravity of the cluster and the user 101 in consideration of the variance in the cluster.
Further, by repeatedly estimating the attribute information of the user 101 for each content 102, it is possible to improve the accuracy of the attribute information estimation.

[第六実施形態:集中度の低下を検出してコンテンツ102の一時停止]
図11は、本発明の第六の実施形態に係る集中度処理システム1101の実装例におけるソフトウェア機能を示すブロック図である。
図11に係る集中度処理システム1101は、一例としてスタンドアロンの光ディスク装置等の、動画再生装置を想定している。
図11中、コンテンツ再生処理部512は、光ディスク等のローカルストレージ511に記録されている動画等のコンテンツ102を再生し、表示部410に表示する。その際、コンテンツ102の再生時間情報等を第二ツール部509に出力する。
インターフェース部502は、第一ツール部508から出力されるユーザー101の集中度と、第二ツール部509が出力するコンテンツ102の再生時間情報等を、集中度判定処理部1102に出力する。
集中度判定処理部1102は、所定の単位時間毎に集中度の変動量を検出し、集中度の変動量が所定の第一の閾値を下回ったか否かを検出する。そして、集中度の変動量が所定の閾値を下回った時点で、コンテンツ再生処理部512にコンテンツ102再生の一時停止指示を出力する。
更に集中度処理部は、コンテンツ再生処理部512にコンテンツ再生の一時停止指示を出力した後、集中度の変動量が所定の第二の閾値を上回ったか否かを検出する。そして、集中度の変動量が所定の第二の閾値を上回った時点で、コンテンツ再生処理部512に数秒の巻き戻し指示と、コンテンツ再生指示を出力する。
また集中度処理部は、コンテンツ再生処理部512にコンテンツ再生の一時停止指示を出力した後、コンテンツ再生処理部512からユーザー101が操作部408を通じて再生指示が来たことを検出したら、コンテンツ再生処理部512に数秒の巻き戻し指示と、コンテンツ再生指示を出力してもよい。
[Sixth Embodiment: Detection of Decreasing Concentration and Suspending Content 102]
FIG. 11 is a block diagram showing software functions in an implementation example of the concentration processing system 1101 according to the sixth embodiment of the present invention.
The concentration processing system 1101 according to FIG. 11 is assumed to be a moving image playback device such as a stand-alone optical disc device as an example.
In FIG. 11, the content reproduction processing unit 512 reproduces the content 102 such as a moving image recorded in the local storage 511 such as an optical disk and displays it on the display unit 410. At that time, the reproduction time information of the content 102 is output to the second tool unit 509.
The interface unit 502 outputs the concentration level of the user 101 output from the first tool unit 508 and the reproduction time information of the content 102 output from the second tool unit 509 to the concentration level determination processing unit 1102.
The concentration level determination processing unit 1102 detects a variation amount of the concentration level every predetermined unit time, and detects whether or not the variation amount of the concentration level falls below a predetermined first threshold value. Then, when the amount of change in the concentration level falls below a predetermined threshold value, a pause instruction for reproduction of the content 102 is output to the content reproduction processing unit 512.
Further, the concentration level processing unit outputs a content reproduction pause instruction to the content reproduction processing unit 512, and then detects whether or not the variation amount of the concentration level exceeds a predetermined second threshold. Then, when the fluctuation amount of the concentration level exceeds a predetermined second threshold value, a rewind instruction for several seconds and a content reproduction instruction are output to the content reproduction processing unit 512.
When the concentration processing unit outputs a content playback pause instruction to the content playback processing unit 512 and then detects that the user 101 has received a playback instruction from the content playback processing unit 512 via the operation unit 408, the content playback processing is performed. The unit 512 may output a rewind instruction for several seconds and a content reproduction instruction.

図12は、動画再生装置にて動画を再生するユーザー101の、時間経過に伴う集中度の変動を示すグラフと、動画再生装置が動画の再生を一時停止して再度再生を行う過程を示すタイムチャートである。
時点T1201において、ユーザー101は再生中のコンテンツ102に対して高い集中度を示している。しかし、時点T1202で電話がかかってきたことにより、ユーザー101の集中度は時点T1203にて急激に低下する。集中度判定処理部1102は、時点T1203における集中度から時点T1202における集中度を減算して、集中度変動量を得る。そして、集中度判定処理部1102はこの集中度変動量が所定の第一の閾値を下回ったことを検出すると、コンテンツ再生処理部512に対し、コンテンツ102の再生を一時停止する命令を発する。また、集中度判定処理部1102は時点T1202のコンテンツ再生時間をRAM417に保持する。
図12において、時点T1202のコンテンツ再生時間は、10分23秒である。
FIG. 12 is a graph showing a variation in the degree of concentration of the user 101 who plays a moving image on the moving image reproducing device over time, and a time when the moving image reproducing device pauses the reproduction of the moving image and performs the reproduction again. It is a chart.
At time T1201, the user 101 shows a high degree of concentration with respect to the content 102 being reproduced. However, due to the incoming call at time T1202, the concentration of the user 101 decreases rapidly at time T1203. The concentration level determination processing unit 1102 subtracts the concentration level at time T1202 from the concentration level at time T1203 to obtain a concentration level fluctuation amount. When the concentration level determination processing unit 1102 detects that the concentration level fluctuation amount has fallen below a predetermined first threshold value, the concentration level determination processing unit 1102 issues a command to pause the reproduction of the content 102 to the content reproduction processing unit 512. Further, the concentration degree determination processing unit 1102 holds the content reproduction time at the time T1202 in the RAM 417.
In FIG. 12, the content reproduction time at time T1202 is 10 minutes 23 seconds.

時点T1204においてユーザー101が電話連絡を終了し、再びコンテンツ102の再生に注目し始めると、時点T1205においてユーザー101の集中度は急激に上昇する。集中度判定処理部1102は、時点T1205における集中度から時点T1204における集中度を減算して、集中度変動量を得る。そして、集中度判定処理部1102はこの集中度変動量が所定の第二の閾値を上回ったことを検出すると、コンテンツ再生処理部512に対し、一時停止されていたコンテンツ102の再生を再開する命令を発する。その際、コンテンツ102の再生位置は、時点T1203で保持していた時点T1202の再生時間(10分23秒)から、更に数秒の巻き戻しを行う。
図12において、時点T1205では、コンテンツ再生時間を10分20秒まで巻き戻して再生を再開している。
When the user 101 finishes the telephone contact at time T1204 and starts paying attention to the reproduction of the content 102 again, the concentration of the user 101 increases rapidly at time T1205. The concentration level determination processing unit 1102 subtracts the concentration level at the time point T1204 from the concentration level at the time point T1205 to obtain the concentration level fluctuation amount. When the concentration level determination processing unit 1102 detects that the variation amount of the concentration level exceeds a predetermined second threshold value, the instruction to restart the reproduction of the content 102 that has been paused is given to the content reproduction processing unit 512. To emit. At that time, the playback position of the content 102 is further rewound for several seconds from the playback time (10 minutes 23 seconds) at the time T1202 held at the time T1203.
In FIG. 12, at time T1205, the content playback time is rewound to 10 minutes 20 seconds and playback is resumed.

例えば映画等が記録されている光ディスク等の動画コンテンツをディスク再生装置にて再生し、ユーザー101がコンテンツ102を視聴している状態において、ユーザー101に電話がかかる等、それまでユーザー101が維持していた集中度が急激に低下する事態が生じることがある。集中度判定処理部1102は、そのような集中度の急激な低下を検出し、ディスク再生装置におけるコンテンツ再生処理を一時停止する。ユーザー101の集中度が回復したり、ユーザー101が再生ボタンを押したら、集中度が低下した時点より数秒前の再生位置からコンテンツ再生を再開することで、ユーザー101に快適なコンテンツ再生環境を提供することができる。
なお、以上に説明した第六実施形態では、光ディスク等の記録済コンテンツを対象として説明したが、ネットワーク経由のコンテンツや、TV等のストリーミングコンテンツでも、常時録画を伴うことで対応が可能である。
For example, when a moving image content such as an optical disc in which a movie or the like is recorded is reproduced by a disc reproducing apparatus and the user 101 is watching the content 102, the user 101 is in a state where the user 101 makes a call or the like. There may be a situation where the concentration level that has been reduced rapidly. The degree-of-concentration determination processing unit 1102 detects such a sudden decrease in the degree of concentration, and temporarily stops the content reproduction process in the disc reproduction apparatus. When the user's 101 concentration level recovers or when the user 101 presses the play button, the content playback is resumed from the playback position several seconds before the point when the concentration level decreased, thereby providing the user 101 with a comfortable content playback environment. can do.
In the sixth embodiment described above, the recorded content such as an optical disk has been described. However, content via a network and streaming content such as a TV can be dealt with by always recording.

[第七実施形態:集中度に加えてコンテンツ102の再生中断をデータベース802に記録]
図13は、本発明の第七の実施形態に係る集中度処理システム1301の実装例におけるソフトウェア機能を示すブロック図である。
図13に係る集中度処理システム1301は、一例としてネットワークに接続されている動画再生装置を想定している。
図13中、コンテンツ再生処理部512は、光ディスク等のローカルストレージ511や、ネットワークストレージ510からネットワークを通じて受信する動画等のコンテンツ102を再生し、表示部410に表示する。その際、コンテンツ102の再生時間情報に加え、操作部408を通じてコンテンツ102の再生が中断されたことを示す情報も、第二ツール部509に出力する。また、図13では図示していないが、TV放送等の放送コンテンツもコンテンツ再生処理部512の処理対象である。
インターフェース部502は、第一ツール部508から出力されるユーザー101の集中度と、第二ツール部509が出力するコンテンツID及びコンテンツ102の再生時間情報等と、第三ツール部513が出力する現在日時情報やUID等を、顧客システム505に送信する。
顧客システム505はデータベース802に、UID、現在日時、コンテンツID、コンテンツ再生時間、コンテンツ再生中断情報、集中度等を記録する。
[Seventh embodiment: In addition to the degree of concentration, the reproduction interruption of the content 102 is recorded in the database 802]
FIG. 13 is a block diagram showing software functions in an implementation example of the concentration processing system 1301 according to the seventh embodiment of the present invention.
The concentration processing system 1301 according to FIG. 13 is assumed to be a moving image playback device connected to a network as an example.
In FIG. 13, the content reproduction processing unit 512 reproduces the content 102 such as a moving image received from the local storage 511 such as an optical disc or the network storage 510 via the network, and displays the content on the display unit 410. At this time, in addition to the reproduction time information of the content 102, information indicating that the reproduction of the content 102 has been interrupted through the operation unit 408 is also output to the second tool unit 509. Although not shown in FIG. 13, broadcast content such as TV broadcast is also a processing target of the content reproduction processing unit 512.
The interface unit 502 displays the concentration of the user 101 output from the first tool unit 508, the content ID output from the second tool unit 509, the reproduction time information of the content 102, and the current output from the third tool unit 513. The date / time information, UID, and the like are transmitted to the customer system 505.
The customer system 505 records the UID, current date and time, content ID, content playback time, content playback interruption information, degree of concentration, etc. in the database 802.

例えばコンテンツ102が放送コンテンツ等の場合、ユーザー101がコンテンツ102に不快に感じるか、あるいはユーザー101がコンテンツ102に飽きた時、コンテンツ102の視聴を中断することがある。もし、ユーザー101がコンテンツ102に飽きた場合、ユーザー101の集中度は低い値を示すことが考えられる。一方、ユーザー101がコンテンツ102に不快感を覚える場合、ユーザー101の集中度は相応に高い値を示すことが考えられる。つまり、集中度とコンテンツ102は相関性を有することが考えられる。本実施形態の集中度処理システム1301では、集中度の記録に加えて、ユーザー101が操作部408を操作して、コンテンツ102の視聴を停止したことを示す情報も記録する。視聴停止情報と集中度を記録することで、ユーザー101がコンテンツ102に飽きて視聴を停止したのか、あるいはコンテンツ102がユーザー101に不快感を与えたためにユーザー101が視聴を停止したのか等、集中度と視聴停止のタイミングとの相関性を検出することができる。
なお、視聴停止の検出は、停止ボタンに限らず、早送りボタン、巻き戻しボタン等の、操作部408における操作ボタンの操作情報を記録することが好ましい。また、TV放送等の放送コンテンツにおいては、チャンネルの変更指示等も視聴停止の情報として記録できる。
For example, when the content 102 is a broadcast content or the like, when the user 101 feels uncomfortable with the content 102 or when the user 101 gets tired of the content 102, the viewing of the content 102 may be interrupted. If the user 101 gets tired of the content 102, the concentration of the user 101 may be low. On the other hand, when the user 101 feels uncomfortable with the content 102, it is conceivable that the concentration of the user 101 shows a correspondingly high value. That is, it is conceivable that the degree of concentration and the content 102 have a correlation. In the concentration processing system 1301 of the present embodiment, in addition to recording the concentration, information indicating that the user 101 has stopped viewing the content 102 by operating the operation unit 408 is also recorded. By recording the viewing stop information and the degree of concentration, whether the user 101 got tired of the content 102 and stopped viewing, or the content 102 caused discomfort to the user 101 and the user 101 stopped viewing, etc. It is possible to detect the correlation between the degree and the viewing stop timing.
Note that the detection of the viewing stop is not limited to the stop button, and it is preferable to record operation information of the operation buttons in the operation unit 408 such as a fast forward button and a rewind button. In broadcast content such as TV broadcast, a channel change instruction or the like can also be recorded as viewing stop information.

本実施形態においては、集中度処理システムを開示した。
集中度処理システムを構成するソフトウェアは、エンジン部501、ツール部503、インターフェース部502に機能を分化させている(図5参照)。
エンジン部501は、撮像装置411が出力する画像データストリームからベクトルデータ等の基本的なデータを生成する。
ツール部503は、エンジン部501が出力するデータに基づいて、集中度等の、顧客システム505に対して有用なデータを算出する。また、集中度とは別に、コンテンツ102の様々な情報や、ユーザー101を特定する情報等も、ツール部503が出力する。
インターフェース部502は、エンジン部501から出力されるデータをツール部503に引き渡したり、ツール部503から出力されるデータを顧客システム505へ引き渡す等の、データの授受を管理する。
様々な顧客の要求に対し、データフォーマットの要求についてはインターフェース部502で吸収し、データ種類の要求についてはツール部503で吸収する。このように、機能を分化させることで、ソフトウェアの開発効率を向上させると共に、顧客の要求に対して迅速な対応が可能になる。なお、エンジン部501とツール部503は、用途に応じて交換が可能である(図7A、図7B参照)。
In the present embodiment, a concentration processing system has been disclosed.
Software constituting the concentration processing system has functions divided into an engine unit 501, a tool unit 503, and an interface unit 502 (see FIG. 5).
The engine unit 501 generates basic data such as vector data from the image data stream output from the imaging device 411.
The tool unit 503 calculates useful data for the customer system 505 such as the degree of concentration based on the data output from the engine unit 501. In addition to the degree of concentration, the tool unit 503 outputs various information of the content 102, information for specifying the user 101, and the like.
The interface unit 502 manages the exchange of data such as passing data output from the engine unit 501 to the tool unit 503 and passing data output from the tool unit 503 to the customer system 505.
In response to various customer requests, the data format request is absorbed by the interface unit 502, and the data type request is absorbed by the tool unit 503. Thus, by differentiating functions, it is possible to improve the software development efficiency and respond quickly to customer requests. In addition, the engine part 501 and the tool part 503 can be replaced | exchanged according to a use (refer FIG. 7A and FIG. 7B).

例えば、多大な計算機資源を要求する集中度算出機能を提供する第一ツール部508をクライアント402に搭載せず、顧客システム505に搭載する。そして、クライアント402に実装するソフトウェア機能を、エンジン部501とインターフェース部502(図8)、またはエンジン部501の中核部分であるエンジンコア部507とインターフェース部502を搭載する(図6参照)構成とする。すなわち、特に低資源装置に集中度処理システム1301を実装できるように構成することができる。このようにソフトウェア機能を分化させると、様々な形態のシステムに対して柔軟な実装を実現できる。   For example, the first tool unit 508 that provides a concentration degree calculation function that requires a large amount of computer resources is not installed in the client 402 but is installed in the customer system 505. The software function to be implemented in the client 402 includes an engine unit 501 and an interface unit 502 (FIG. 8), or an engine core unit 507 and an interface unit 502 that are the core parts of the engine unit 501 (see FIG. 6). To do. That is, it can be configured so that the concentration processing system 1301 can be mounted particularly on a low resource apparatus. When software functions are differentiated in this way, flexible implementation can be realized for various types of systems.

集中度処理システム1301によって測定した集中度は、コンテンツ102に対するユーザー101の集中度そのものを表すに留まらず、ユーザー101の嗜好を示す情報ともなり得る。そこで、ユーザー101の集中度を、ユーザー101の性別・年齢や他の属性情報と共にサーバー414に集めることで、集中度の傾向をユーザー101の属性情報でクラスタリングすることが可能になる。すると、逆に、性別・年齢や他の属性情報が不明なユーザー101の集中度のデータを、既知のクラスター化された集中度の傾向と比較して類似度を算出することで、当該ユーザー101がどのクラスターに属するのかを類推することが可能になる(図9参照)。   The degree of concentration measured by the degree-of-concentration processing system 1301 does not only represent the degree of concentration of the user 101 with respect to the content 102 but can also be information indicating the preference of the user 101. Therefore, by gathering the concentration level of the user 101 together with the gender / age of the user 101 and other attribute information on the server 414, the tendency of the concentration level can be clustered with the attribute information of the user 101. Then, conversely, by calculating the degree of similarity by comparing the concentration data of the user 101 whose gender / age and other attribute information are unknown with a known clustered concentration degree tendency, the user 101 It is possible to infer which cluster belongs to (see FIG. 9).

動画コンテンツを所定の再生装置で再生し、ユーザー101がその動画コンテンツを視聴している状態において、動画コンテンツを視聴中のユーザー101に電話がかかる等、それまでユーザー101が維持していた集中度が急激に低下する場合がある。このような場合は、単位時間毎の、ユーザー101の集中度の急激な低下を検出し、再生装置におけるコンテンツ再生処理を一時停止する。ユーザー101の集中度が回復したり、ユーザー101が再生ボタンを押すと、集中度が低下した時点より数秒前の再生位置からコンテンツ再生を再開することで、ユーザー101に快適なコンテンツ再生環境を提供することができる(図11参照)。   The degree of concentration that the user 101 has maintained so far, such as when the user 101 is viewing the video content while the video content is being played on a predetermined playback device and the user 101 is viewing the video content, May drop sharply. In such a case, a sudden decrease in the degree of concentration of the user 101 per unit time is detected, and the content playback process in the playback device is paused. When the user's 101 concentration level is restored or when the user 101 presses the play button, the content playback is resumed from the playback position several seconds before the point when the concentration level decreased, thereby providing the user 101 with a comfortable content playback environment. (See FIG. 11).

放送コンテンツ等を視聴中のユーザー101が、当該コンテンツ102に不快感を感じるか、あるいはユーザー101が当該コンテンツ102に飽きた時、ユーザー101がコンテンツ102の視聴を中断することがある。そこで、集中度処理システム1301において、集中度の記録に加えて、ユーザー101がコンテンツ再生装置の操作部408を操作して、コンテンツ102の視聴を停止したことを示す情報も、サーバー414に記録する。視聴停止情報と集中度を記録することで、ユーザー101がコンテンツ102に飽きて視聴を停止したのか、あるいはコンテンツ102がユーザー101に不快感を与えたためにユーザー101が視聴を停止したのか等、集中度と視聴停止のタイミングとの相関性を検出することができる(図13参照)。   When the user 101 viewing the broadcast content or the like feels uncomfortable with the content 102 or when the user 101 gets tired of the content 102, the user 101 may interrupt the viewing of the content 102. Therefore, in the concentration processing system 1301, in addition to recording the concentration, information indicating that the user 101 has stopped viewing the content 102 by operating the operation unit 408 of the content reproduction apparatus is also recorded in the server 414. . By recording the viewing stop information and the degree of concentration, whether the user 101 got tired of the content 102 and stopped viewing, or the content 102 caused discomfort to the user 101 and the user 101 stopped viewing, etc. It is possible to detect the correlation between the degree and the viewing stop timing (see FIG. 13).

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。
例えば、上記した実施形態は本発明をわかりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、更にはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
The embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and other modifications and application examples are provided without departing from the gist of the present invention described in the claims. including.
For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and the system in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するためのソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の揮発性あるいは不揮発性のストレージ、または、ICカード、光ディスク等の記録媒体に保持することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software for interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function must be held in a volatile or non-volatile storage such as a memory, hard disk, or SSD (Solid State Drive), or a recording medium such as an IC card or an optical disk. Can do.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

101…ユーザー、102…コンテンツ、103…ディスプレイ、104…カメラ、201…LCDディスプレイ、202…webカメラ、203…ノートパソコン、204…LCDディスプレイ、205…webカメラ、206…携帯型無線端末、207…LCDディスプレイ、208…インカメラ、401…集中度処理システム、402…クライアント、403…CPU、404…ROM、405…RAM、406…不揮発性ストレージ、407…RTC、408…操作部、409…バス、410…表示部、411…撮像装置、412…NIC、413…インターネット、414…サーバー、415…CPU、416…ROM、417…RAM、418…不揮発性ストレージ、419…NIC、420…バス、501…エンジン部、502…インターフェース部、503…ツール部、504…コンテンツ再生部、505…顧客システム、506…顧客ツール、507…エンジンコア部、508…第一ツール部、509…第二ツール部、510…ネットワークストレージ、511…ローカルストレージ、512…コンテンツ再生処理部、513…第三ツール部、601…集中度処理システム、701…集中度処理システム、702…集中度処理システム、703…第一エンジン部、704…第二エンジン部、705…第四ツール部、706…第五ツール部、801…集中度処理システム、802…データベース、901…集中度処理システム、902…クラスター分析処理部、903…ユーザーマスター、904…集中度テーブル、905…クラスターテーブル、1101…集中度処理システム、1102…集中度判定処理部、1301…集中度処理システム   DESCRIPTION OF SYMBOLS 101 ... User, 102 ... Content, 103 ... Display, 104 ... Camera, 201 ... LCD display, 202 ... Web camera, 203 ... Laptop, 204 ... LCD display, 205 ... Web camera, 206 ... Portable wireless terminal, 207 ... LCD display, 208 ... In-camera, 401 ... Concentration processing system, 402 ... Client, 403 ... CPU, 404 ... ROM, 405 ... RAM, 406 ... Non-volatile storage, 407 ... RTC, 408 ... Operation unit, 409 ... Bus, 410: Display unit, 411 ... Imaging device, 412 ... NIC, 413 ... Internet, 414 ... Server, 415 ... CPU, 416 ... ROM, 417 ... RAM, 418 ... Non-volatile storage, 419 ... NIC, 420 ... Bus, 501 ... Engine part, 50 ... interface part 503 ... tool part 504 ... content reproduction part 505 ... customer system 506 ... customer tool 507 ... engine core part 508 ... first tool part 509 ... second tool part 510 ... network storage, 511 ... Local storage, 512 ... Content reproduction processing unit, 513 ... Third tool unit, 601 ... Concentration processing system, 701 ... Concentration processing system, 702 ... Concentration processing system, 703 ... First engine unit, 704 ... No. Two engine parts, 705 ... fourth tool part, 706 ... fifth tool part, 801 ... concentration processing system, 802 ... database, 901 ... concentration processing system, 902 ... cluster analysis processing part, 903 ... user master, 904 ... Concentration degree table, 905 ... Cluster table, 1101 ... Concentration Processing system, 1102 ... concentration determination process section, 1301 ... concentration level processing system

Claims (4)

コンテンツを表示する表示部と、
前記表示部を見るユーザーの顔を撮影可能な方向に設置される撮像装置と、
エンジンコア部と該エンジンコア部以外のソフトウェア機能を有するエンジン部とからなり、前記撮像装置から出力される画像データストリームから前記ユーザーの顔の向き及び前記ユーザーの視線の向きを示すベクトルデータ及び該ベクトルデータの時間軸上の揺らぎである変化量を出力するエンジン部と、
前記ベクトルデータ及び前記変化量から前記ユーザーが前記表示部に表示されている前記コンテンツに対する集中度を算出する集中度算出機能を有する第一ツール部と、
前記ベクトルデータ及び/又は前記集中度を所定の情報処理装置へ出力する入出力制御部と、を備え、
前記エンジンコア部は、前記ユーザーの顔が存在するか否かを検出し、前記ユーザーの顔の三次元イメージから前記ユーザーの顔の抽出点の座標情報を出力し、
前記エンジンコア部以外のソフトウェア機能を有するエンジン部は、前記ユーザーの顔の向き及び前記ユーザーの視線の向きを示すベクトルデータ、及び前記ベクトルデータの前記変化量を算出し、
前記第一ツール部は、前記ユーザーが前記表示部に表示されている前記コンテンツを注視しているか否かを所定の範囲を有するデータとして出力する、
集中度処理システム。
A display for displaying content;
An imaging device installed in a direction in which the face of the user viewing the display unit can be photographed;
An engine core unit and an engine unit having a software function other than the engine core unit, vector data indicating the orientation of the user's face and the direction of the user's line of sight from an image data stream output from the imaging device; An engine unit that outputs a change amount that is fluctuation on a time axis of vector data;
A first tool unit having a concentration level calculation function for calculating a concentration level for the content displayed on the display unit by the user from the vector data and the change amount;
An input / output control unit that outputs the vector data and / or the degree of concentration to a predetermined information processing device,
The engine core unit detects whether or not the user's face is present, and outputs coordinate information of an extraction point of the user's face from a three-dimensional image of the user's face,
The engine unit having a software function other than the engine core unit calculates vector data indicating the orientation of the user's face and the direction of the line of sight of the user, and the amount of change of the vector data,
The first tool unit outputs whether or not the user is gazing at the content displayed on the display unit as data having a predetermined range.
Concentration processing system.
更に、
前記表示部と、前記撮像装置と、前記エンジンコア部と、前記入出力制御部はクライアントに装備され、
前記エンジンコア部以外のソフトウェア機能を有するエンジン部及び前記第一ツール部は、前記所定の情報処理装置に装備される、
請求項1に記載の集中度処理システム。
Furthermore,
The display unit, the imaging device, the engine core unit, and the input / output control unit are equipped in a client,
The engine part having the software function other than the engine core part and the first tool part are equipped in the predetermined information processing apparatus,
The concentration processing system according to claim 1.
更に、
前記表示部に表示されている前記コンテンツの再生位置情報を前記入出力制御部に出力する第二ツール部と、
前記コンテンツを前記表示部に再生すると共に、前記コンテンツの再生位置情報を前記第二ツール部に出力するコンテンツ再生処理部と、
ある時点における集中度から一つ前の時点における集中度を減算したときの集中度の変化量が所定の第一の閾値を下回り、前記集中度が低下した場合に、前記コンテンツ再生処理部に対し、前記コンテンツの再生の一時停止を指示し、
ある時点における集中度から一つ前の時点における集中度を減算したときの集中度の変化量が所定の第二の閾値を上回り、前記集中度が上昇した場合には、前記コンテンツ再生処理部に対し、一時停止された前記コンテンツの再生の再開を指示する集中度判定処理部と、を備える、
請求項1に記載の集中度処理システム。
Furthermore,
A second tool unit that outputs reproduction position information of the content displayed on the display unit to the input / output control unit;
A content reproduction processing unit that reproduces the content on the display unit and outputs reproduction position information of the content to the second tool unit;
When the amount of change in the degree of concentration when the degree of concentration at the previous time is subtracted from the degree of concentration at a certain point in time is below a predetermined first threshold value, , Instruct to pause playback of the content,
When the degree of concentration change when the degree of concentration at the previous time is subtracted from the degree of concentration at a certain point in time exceeds a predetermined second threshold value and the degree of concentration rises, the content reproduction processing unit On the other hand, a concentration level determination processing unit for instructing resumption of reproduction of the paused content,
The concentration processing system according to claim 1.
更に、
前記ユーザーの操作を受け付けて、前記コンテンツの再生指示情報及び再生停止指示情報を送信する操作部と、
前記コンテンツを前記表示部に再生すると共に、前記コンテンツの再生位置情報と、前記操作部からの前記コンテンツの再生指示情報及び再生停止指示情報とを出力するコンテンツ再生処理部と、
前記コンテンツ再生処理部から、前記表示部に表示されている前記コンテンツのコンテンツID及び再生位置情報、前記コンテンツの再生指示情報及び再生停止指示情報を受けて、前記入出力制御部に出力する第二ツール部と、
前記ユーザーを一意に識別するためのユーザーID、及び現在日時情報を前記入出力制御部に出力する第三ツール部と、を備え、
前記入出力制御部は、前記第一ツール部から出力される前記集中度と、前記第二ツール部から出力される前記コンテンツのコンテンツID及び再生位置情報、前記コンテンツの再生指示情報及び再生停止指示情報と、前記第三ツール部から出力される前記ユーザーIDと、前記現在日時情報とを所定の情報処理装置に送信し、
前記所定の情報処理装置は、
前記集中度、前記コンテンツのコンテンツID及び再生位置情報、前記コンテンツの再生指示情報及び再生停止指示情報、及び前記ユーザーID、前記現在日時情報を記録するデータベースを備える、
請求項1に記載の集中度処理システム。
Furthermore,
An operation unit for accepting an operation of the user, and transmits the reproduction instruction information and the reproduction stop instruction information before Symbol content,
Reproduces the contents on the display unit, and the playback position information of the content, the content reproduction process section for force out a reproduction instruction information and the reproduction stop instruction information of the contents from the operation unit,
A second content ID and reproduction position information of the content displayed on the display unit, a reproduction instruction information of the content, and a reproduction stop instruction information are received from the content reproduction processing unit and output to the input / output control unit A tool part;
A user ID for uniquely identifying the user, and a third tool unit that outputs current date and time information to the input / output control unit,
The input / output control unit includes the concentration level output from the first tool unit, the content ID and playback position information of the content output from the second tool unit, the playback instruction information of the content, and the playback stop instruction. Transmitting the information, the user ID output from the third tool part, and the current date and time information to a predetermined information processing device;
The predetermined information processing apparatus includes:
A database for recording the degree of concentration, the content ID and playback position information of the content, the playback instruction information and playback stop instruction information of the content, the user ID, and the current date and time information;
The concentration processing system according to claim 1.
JP2015237432A 2015-12-04 2015-12-04 Concentration processing system Expired - Fee Related JP6055535B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015237432A JP6055535B1 (en) 2015-12-04 2015-12-04 Concentration processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015237432A JP6055535B1 (en) 2015-12-04 2015-12-04 Concentration processing system

Publications (2)

Publication Number Publication Date
JP6055535B1 true JP6055535B1 (en) 2016-12-27
JP2017103702A JP2017103702A (en) 2017-06-08

Family

ID=57582276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015237432A Expired - Fee Related JP6055535B1 (en) 2015-12-04 2015-12-04 Concentration processing system

Country Status (1)

Country Link
JP (1) JP6055535B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125734A (en) * 2020-02-03 2021-08-30 マルコムホールディングス株式会社 Device for providing feeling information of interacting user

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002014821A (en) * 2000-06-29 2002-01-18 Toshiba Corp Server client system and recording medium having application distributing method in the same system recorded thereon
JP2004362145A (en) * 2003-06-03 2004-12-24 Sony Corp Method and device for reproducing content, method and device for distributing content, method for recording content, content recording media, and information recording method and device
JP2005167628A (en) * 2003-12-02 2005-06-23 Sony Corp Information processor, informatino processing method, and computer program
JP2005260578A (en) * 2004-03-11 2005-09-22 Ricoh Co Ltd View analyzing server, video display device, and view information collecting/distributing system provided with view analyzing server and video display device
JP2007036846A (en) * 2005-07-28 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> Motion picture reproducing apparatus and control method thereof
WO2010021373A1 (en) * 2008-08-22 2010-02-25 ソニー株式会社 Image display device, control method and computer program
WO2012137318A1 (en) * 2011-04-06 2012-10-11 株式会社日立製作所 Content recommendation server, content display terminal, and content recommendation method
WO2014147828A1 (en) * 2013-03-22 2014-09-25 トヨタ自動車株式会社 Driving assistance device, driving assistance method, information-providing device, information-providing method, navigation device and navigation method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002014821A (en) * 2000-06-29 2002-01-18 Toshiba Corp Server client system and recording medium having application distributing method in the same system recorded thereon
JP2004362145A (en) * 2003-06-03 2004-12-24 Sony Corp Method and device for reproducing content, method and device for distributing content, method for recording content, content recording media, and information recording method and device
JP2005167628A (en) * 2003-12-02 2005-06-23 Sony Corp Information processor, informatino processing method, and computer program
JP2005260578A (en) * 2004-03-11 2005-09-22 Ricoh Co Ltd View analyzing server, video display device, and view information collecting/distributing system provided with view analyzing server and video display device
JP2007036846A (en) * 2005-07-28 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> Motion picture reproducing apparatus and control method thereof
WO2010021373A1 (en) * 2008-08-22 2010-02-25 ソニー株式会社 Image display device, control method and computer program
WO2012137318A1 (en) * 2011-04-06 2012-10-11 株式会社日立製作所 Content recommendation server, content display terminal, and content recommendation method
WO2014147828A1 (en) * 2013-03-22 2014-09-25 トヨタ自動車株式会社 Driving assistance device, driving assistance method, information-providing device, information-providing method, navigation device and navigation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125734A (en) * 2020-02-03 2021-08-30 マルコムホールディングス株式会社 Device for providing feeling information of interacting user
JP7316664B2 (en) 2020-02-03 2023-07-28 マルコムホールディングス株式会社 Apparatus for Providing Emotional Information of Conversational User

Also Published As

Publication number Publication date
JP2017103702A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
US9749692B2 (en) Providing recommendations based upon environmental sensing
US10062412B2 (en) Hierarchical segmentation and quality measurement for video editing
KR102025334B1 (en) Determining user interest through detected physical indicia
US9681201B2 (en) Comment information generating apparatus and comment information generating method
JP6282769B2 (en) Engagement value processing system and engagement value processing device
US20140289241A1 (en) Systems and methods for generating a media value metric
US20140007149A1 (en) System, apparatus and method for multimedia evaluation
US20120072936A1 (en) Automatic Customized Advertisement Generation System
US10192582B2 (en) Automatic generation of time-lapse videos
KR20140045412A (en) Video highlight identification based on environmental sensing
CN110163066B (en) Multimedia data recommendation method, device and storage medium
WO2014179515A2 (en) Management of user media impressions
US11812105B2 (en) System and method for collecting data to assess effectiveness of displayed content
US9002172B2 (en) Electronic apparatus and image processing method
CN110248245A (en) A kind of video locating method, device, mobile terminal and storage medium
CN108924534B (en) Panoramic image display method, client, server and storage medium
JP6055535B1 (en) Concentration processing system
US11843829B1 (en) Systems and methods for recommending content items based on an identified posture
CN115086774B (en) Resource display method and device, electronic equipment and storage medium
US11682210B1 (en) Methods and device for video data analysis
WO2023120263A1 (en) Information processing device and information processing method
JP2023519608A (en) Systems and methods for collecting data from user devices
EP2925009A1 (en) Viewer engagement estimating system and method of estimating viewer engagement
JP2015220530A (en) Device, program and system for identifying audience quality
JP2023104899A (en) Device and method for providing line-of-sight recognition-based custom content

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161202

R150 Certificate of patent or registration of utility model

Ref document number: 6055535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees