JP2023082903A - Information processing device, method, and program - Google Patents

Information processing device, method, and program Download PDF

Info

Publication number
JP2023082903A
JP2023082903A JP2021196905A JP2021196905A JP2023082903A JP 2023082903 A JP2023082903 A JP 2023082903A JP 2021196905 A JP2021196905 A JP 2021196905A JP 2021196905 A JP2021196905 A JP 2021196905A JP 2023082903 A JP2023082903 A JP 2023082903A
Authority
JP
Japan
Prior art keywords
billing
user
index
information
viewer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021196905A
Other languages
Japanese (ja)
Inventor
里奈 羅
Rina Ra
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021196905A priority Critical patent/JP2023082903A/en
Publication of JP2023082903A publication Critical patent/JP2023082903A/en
Pending legal-status Critical Current

Links

Images

Abstract

To enable billing to be performed on a billing target desired by a viewer without impairing the viewer's sense of immersion.SOLUTION: In an information processing device 10 used for viewing a video distributed online, a control unit 11 calculates a viewer's satisfaction level on the basis of the viewer's health care information during viewing of the online distribution. The control unit 11 then identifies a billing target according to the viewer's satisfaction level on the basis of at least one of a direction and position of a viewer's line of sight during viewing of the online distribution and executes control of superimposing the billing target on the video distributed online to perform display for billing processing on the identified billing target.SELECTED DRAWING: Figure 1

Description

本発明は、オンライン配信される映像を視聴するのに利用される情報処理装置、方法及びプログラムに関する。 The present invention relates to an information processing apparatus, method, and program used for viewing video distributed online.

近年、カメラを用いて撮影した映像をユーザが実際その場にいなくても体験できるようにVR(Virtual Reality)においてストリーミング配信することが行われている。ストリーミング配信における課金の方式として、視聴者が配信者に対して投げ銭する方式があり、配信者がそれに反応するという双方向的な視聴体験が可能である。
特許文献1には、出演者と視聴者との一体感をより高めることを目的として、視聴者情報および出演者情報の少なくとも一方に基づいて感情を認識して、その感情に基づいたエフェクトの付加を制御することが開示されている。
2. Description of the Related Art In recent years, streaming distribution in VR (Virtual Reality) has been carried out so that a user can experience an image captured by a camera without actually being there. As a billing method in streaming distribution, there is a method in which viewers tip money to the distributor, and an interactive viewing experience is possible in which the distributor responds to it.
In Patent Document 1, an emotion is recognized based on at least one of the viewer information and the performer information, and an effect is added based on the emotion for the purpose of further enhancing the sense of unity between the performer and the viewer. is disclosed to control the

国際公開第2016/088566号WO2016/088566

ストリーミング配信される映像中に投げ銭の対象が複数存在する場合、視聴者は対象を特定した上で投げ銭する必要がある。しかしながら、対象を特定するための操作が必要になると、視聴者の没入感を損ねてしまうという課題がある。特許文献1には、このような課題を解決するための手段については開示されていない。 When there are a plurality of objects to be tipped in the streamed video, the viewer needs to specify the object before tipping. However, there is a problem that the viewer's sense of immersion is spoiled if an operation for specifying the target is required. Patent Document 1 does not disclose means for solving such problems.

本発明は上記のような点に鑑みてなされたものであり、視聴者の没入感を損なうことなく、視聴者が所望する課金対象に対して課金を行えるようにすることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and it is an object of the present invention to enable a viewer to charge for a desired charging target without impairing the viewer's sense of immersion.

本発明の情報処理装置は、オンライン配信される映像を視聴するのに利用される情報処理装置であって、ユーザの状態に関する状態情報を取得する取得手段と、前記取得手段で取得したオンライン配信の視聴中のユーザの前記状態情報に基づいて、ユーザの感情を表す指標を算出する指標算出手段と、ユーザの視線の向き及び位置のうち少なくとも1つを検出する視線検出手段と、前記指標算出手段で算出した前記指標に応じて、前記視線検出手段で検出したオンライン配信の視聴中のユーザの視線の向き及び位置のうち少なくとも1つに基づいて、課金対象を特定し、オンライン配信される映像に重畳させて、特定した前記課金対象に対する課金処理のための表示を行う制御を実行する制御手段とを備えたことを特徴とする。 An information processing apparatus according to the present invention is an information processing apparatus used for viewing videos distributed online, and comprises an obtaining means for obtaining state information relating to a user's state, and an online distribution obtained by the obtaining means. index calculation means for calculating an index representing the user's emotion based on the state information of the user during viewing; line-of-sight detection means for detecting at least one of the user's line-of-sight direction and position; and the index calculation means. In accordance with the index calculated in step 1, a billing target is specified based on at least one of the direction and position of the line of sight of the user who is viewing the online distribution detected by the line of sight detection means, and the video distributed online is identified. and a control means for superimposing and executing a display for billing processing for the specified billing target.

本発明によれば、視聴者の没入感を損なうことなく、視聴者が所望する課金対象に対して課金を行うことが可能になる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to charge for the charge object which a viewer desires, without impairing a viewer's sense of immersion.

実施形態に係る映像配信システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a video distribution system according to an embodiment; FIG. 実施形態に係るVR機器の表示部の表示例を示す図である。FIG. 4 is a diagram showing a display example of the display unit of the VR device according to the embodiment; 実施形態に係るVR機器の表示部の表示例を示す図である。FIG. 4 is a diagram showing a display example of the display unit of the VR device according to the embodiment; 実施形態に係るVR機器が実行する処理を示すフローチャートである。4 is a flowchart showing processing executed by the VR device according to the embodiment; 実施形態に係るVR機器が実行する処理を示すフローチャートである。4 is a flowchart showing processing executed by the VR device according to the embodiment; 図5のフローチャートの課金ボタン表示処理の詳細を示すフローチャートである。FIG. 6 is a flow chart showing the details of charge button display processing in the flow chart of FIG. 5 ; FIG.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。
図1は、実施形態に係る映像配信システムの構成を示すブロック図である。映像配信システムは、VR機器10と、配信サーバ20と、コントローラ30と、VR機器10と配信サーバ20とを接続するインターネット等のネットワーク40とを備える。なお、VR機器10を一台のみ図示するが、複数のVR機器10が配信サーバ20と通信する構成にしてもよい。
Preferred embodiments of the present invention will now be described with reference to the accompanying drawings.
FIG. 1 is a block diagram showing the configuration of a video distribution system according to an embodiment. The video distribution system includes a VR device 10 , a distribution server 20 , a controller 30 , and a network 40 such as the Internet that connects the VR device 10 and the distribution server 20 . Although only one VR device 10 is illustrated, a plurality of VR devices 10 may be configured to communicate with the distribution server 20 .

VR機器10は、制御部11と、視線検出部12と、操作部13と、表示部14と、ROM15と、RAM16と、通信部17と、内部バス18とを備える。VR機器10は、AR(Augmented Reality)を実現する機能を搭載するものでもよい。本実施形態では、VR機器10が、本発明を適用した情報処理装置として機能する。
制御部11は、例えば一又は複数のCPU(Central Processing Unit)やMPU(Micro Processor Unit)やGPU(Graphics Processing Unit)等のプロセッサにより構成され、VR機器10を制御する。本実施形態では、制御部11が後述するROM15が保持するプログラムを実行することにより、本発明の取得手段、指標算出手段、制御手段、設定手段、及び実行手段として機能する。
The VR device 10 includes a control section 11 , a line-of-sight detection section 12 , an operation section 13 , a display section 14 , a ROM 15 , a RAM 16 , a communication section 17 and an internal bus 18 . The VR device 10 may be equipped with a function for realizing AR (Augmented Reality). In this embodiment, the VR device 10 functions as an information processing device to which the present invention is applied.
The control unit 11 is configured by processors such as one or more CPUs (Central Processing Units), MPUs (Micro Processor Units), GPUs (Graphics Processing Units), etc., and controls the VR device 10 . In this embodiment, the control unit 11 functions as acquisition means, index calculation means, control means, setting means, and execution means of the present invention by executing programs held in the ROM 15, which will be described later.

視線検出部12は、制御部11の制御下で、例えば角膜反射法と呼ばれる方式で、表示部14に表示される映像を見るユーザの視線やまばたきを検出する。角膜反射法とは、赤外光がユーザの眼球で反射した反射光(特に角膜で反射した反射光)と、眼球の瞳孔との位置関係とから、視線の向きや位置等を検出する方法である。なお、角膜反射法に限らず、視線の向きや位置等を特定する様々な方法を用いることができる。また、VR機器10の操作のために、ユーザの視線を検出する場合もある。本実施形態では、視線検出部12が本発明の視線検出手段として機能する。 The line-of-sight detection unit 12 detects, under the control of the control unit 11, the line of sight and blinks of the user viewing the image displayed on the display unit 14 by, for example, a method called a corneal reflection method. The corneal reflection method is a method that detects the direction and position of the line of sight from the positional relationship between the infrared light reflected by the user's eyeball (especially the reflected light reflected by the cornea) and the pupil of the eyeball. be. Various methods for identifying the direction and position of the line of sight can be used without being limited to the corneal reflection method. Also, in order to operate the VR device 10, the line of sight of the user may be detected. In this embodiment, the line-of-sight detection unit 12 functions as line-of-sight detection means of the present invention.

操作部13は、ユーザの操作を受け付け、入力された情報を制御部11に通知する。操作部13は、例えばVR機器10が備えるボタン等により構成される。また、表示部14に表示された画像に対するユーザの視線情報を視線検出部12で検出したり、コントローラ30の操作部34からの入力情報を通信部17を介して取得したりすることで実現してもよい。
表示部14は、液晶パネルやLED等により構成され、ユーザに機器の動作状態等の各種メッセージを通知したり、配信サーバ20から配信されるコンテンツである映像を表示したりする。
The operation unit 13 receives user operations and notifies the control unit 11 of input information. The operation unit 13 is composed of, for example, buttons included in the VR device 10 . Further, the line-of-sight information of the user for the image displayed on the display unit 14 is detected by the line-of-sight detection unit 12, and the input information from the operation unit 34 of the controller 30 is acquired via the communication unit 17. may
The display unit 14 is composed of a liquid crystal panel, an LED, and the like, and notifies the user of various messages such as the operating state of the device, and displays video content distributed from the distribution server 20 .

ROM(Read Only Memory)15は、書き換え可能な不揮発性メモリであり、OS(Operation System)等のプログラムや外部装置から供給されるプログラムを保持する。ROM15が保持するプログラムには、後述するように、コントローラ30からユーザのヘルスケア情報を取得するプログラムや、映像中の課金対象を特定し、課金対象に対する課金処理のための表示を行うプログラムを含む。
RAM(Random Access Memory)16は、揮発性メモリであり、プログラムや撮影された画像データ、通信データ等を一時記憶する。
A ROM (Read Only Memory) 15 is a rewritable non-volatile memory, and holds programs such as an OS (Operation System) and programs supplied from an external device. The programs held by the ROM 15 include a program for acquiring user healthcare information from the controller 30, and a program for identifying a billing target in an image and displaying a billing process for the billing target, as will be described later. .
A RAM (Random Access Memory) 16 is a volatile memory that temporarily stores programs, photographed image data, communication data, and the like.

通信部17は、無線通信を実現するための通信ユニットである。通信部17は、無線通信のためのアンテナ及び無線信号を処理するための通信コントローラにより構成され、例えばBluetooth等のコントローラ30と直接通信するための近距離無線通信と、ネットワーク40と接続するために5G等のシステム規格に従った無線通信とを実現する。制御部11は、通信部17を制御して、ネットワーク40を介して配信サーバ20との通信を実現する。また、制御部11は、通信部17を制御して、直接コントローラ30との通信を実現する。なお、通信部17が無線通信を行うとしたが、有線通信でもよい。
内部バス18は、各部11~17を通信可能に接続する。
The communication unit 17 is a communication unit for realizing wireless communication. The communication unit 17 includes an antenna for wireless communication and a communication controller for processing wireless signals. Realize wireless communication according to system standards such as 5G. The control unit 11 controls the communication unit 17 to realize communication with the distribution server 20 via the network 40 . The control unit 11 also controls the communication unit 17 to directly communicate with the controller 30 . Although the communication unit 17 performs wireless communication, wired communication may be used.
An internal bus 18 communicably connects the units 11 to 17 .

配信サーバ20は、制御部21と、ROM22と、RAM23と、通信部24と、記憶部25と、内部バス26とを備える。配信サーバ20は、単一のコンピュータ装置で実現するようにしてもよいし、必要に応じて複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLAN(Local Area Network)等で接続される。
制御部21は、例えばCPUにより構成され、配信サーバ20を制御する。
ROM22は、書き換え可能な不揮発性メモリであり、OS等のプログラムや外部装置から供給されるプログラムを保持する。
RAM23は、揮発性メモリであり、プログラムやデータを一時記憶する。
Distribution server 20 includes control unit 21 , ROM 22 , RAM 23 , communication unit 24 , storage unit 25 and internal bus 26 . The distribution server 20 may be realized by a single computer device, or may be realized by distributing each function to a plurality of computer devices as necessary. When a plurality of computer devices are configured, they are connected via a LAN (Local Area Network) or the like so as to be able to communicate with each other.
The control unit 21 is configured by, for example, a CPU, and controls the distribution server 20 .
The ROM 22 is a rewritable non-volatile memory and holds programs such as an OS and programs supplied from external devices.
The RAM 23 is a volatile memory and temporarily stores programs and data.

通信部24は、有線通信を実現するための通信ユニットである。通信部24は、有線通信のためのハードウェア及び有線信号を処理するための通信コントローラにより構成され、例えばIEEE802.3系規格に従った有線通信を実現する。
記憶部25は、配信サーバ20に固定して設置されたHDD(hard disk drive)、フラッシュメモリで構成されるSSD(Solid State Drive)、ハードディスクとフラッシュメモリを併用したハイブリッドドライブやメモリカード等である。記憶部25は、配信者のアカウント情報等の配信者情報と、視聴者のアカウント情報等の視聴者情報とを保持する。視聴者情報には、投げ銭するときの支払いに関する情報等が含まれる。
内部バス26は、各部21~25を通信可能に接続する。
The communication unit 24 is a communication unit for realizing wired communication. The communication unit 24 is composed of hardware for wired communication and a communication controller for processing wired signals, and realizes wired communication according to IEEE 802.3 series standards, for example.
The storage unit 25 is an HDD (hard disk drive) fixedly installed in the distribution server 20, an SSD (Solid State Drive) composed of flash memory, a hybrid drive or memory card using both a hard disk and a flash memory, or the like. . The storage unit 25 holds distributor information such as distributor account information and viewer information such as viewer account information. The viewer information includes information regarding payment when tipping.
An internal bus 26 communicably connects the units 21 to 25 .

コントローラ30は、ユーザが装着するウェアラブルコントローラであり、制御部31と、通信部32と、ヘルスケア情報取得部33と、操作部34と、内部バス35とを備える。
制御部31は、例えばMPUにより構成され、コントローラ30を制御する。
通信部32は、例えばBluetooth等のVR機器10と直接通信するための近距離無線通信を実現するための通信ユニットである。通信部32は、VR機器10の通信部17とのみ通信を行い、VR機器10の制御情報を受信することで、コントローラ30が制御される場合もある。
ヘルスケア情報取得部33は、例えば光学式心拍センサであり、ユーザの心拍数を測定する。ヘルスケア情報とは、一般的に健康管理に利用される情報であり、心拍数に限らず、例えば脈拍でもよい。ヘルスケア情報が、本発明でいうユーザの状態に関する状態情報の例である。
操作部34は、例えば十字キーやボタンにより構成され、ユーザの操作を受け付け、入力された情報を制御部11に通知する。
内部バス35は、各部31~34を通信可能に接続する。
なお、本実施形態では、VR機器10とコントローラ30とが別体である構成を説明したが、一体である構成にしてもよい。
The controller 30 is a wearable controller worn by a user and includes a control unit 31 , a communication unit 32 , a healthcare information acquisition unit 33 , an operation unit 34 and an internal bus 35 .
The control unit 31 is configured by, for example, an MPU, and controls the controller 30 .
The communication unit 32 is a communication unit for realizing short-range wireless communication for direct communication with the VR device 10 such as Bluetooth. In some cases, the controller 30 is controlled by the communication unit 32 communicating only with the communication unit 17 of the VR device 10 and receiving control information of the VR device 10 .
The healthcare information acquisition unit 33 is, for example, an optical heart rate sensor, and measures the user's heart rate. Health care information is information generally used for health management, and is not limited to heart rate, and may be, for example, pulse. Health care information is an example of state information relating to a user's state as referred to in the present invention.
The operation unit 34 includes, for example, a cross key and buttons, receives user operations, and notifies the control unit 11 of input information.
An internal bus 35 communicably connects the units 31 to 34 .
In this embodiment, the configuration in which the VR device 10 and the controller 30 are separated has been described, but they may be integrated.

図2に、VR機器10の表示部14の表示例を示す。
図2に示すように、表示部14には、配信サーバ20から配信される映像200が表示される。映像200には、二人の出演者201、202が表示されており、視聴者は出演者を特定し、特定した出演者に対して投げ銭できるようになっている。この場合に、映像200には、後述するようにして課金対象(投げ銭の対象)として特定された出演者201の傍に、課金処理の実行を指示するための課金ボタン203が重畳表示される。課金ボタン203は、後述するようにして決定された課金額が付加されている。
図3に、VR機器10の表示部14の他の表示例を示す。課金対象として特定された出演者201の傍に課金ボタンを重畳表示することは同じであるが、課金ボタン301は、課金対象を確認できるように、課金対象として特定された出演者の情報が付加されている。出演者の情報は、例えば出演者の名前やアイコン、映像200から切り出した画像等とすればよい。
FIG. 2 shows a display example of the display unit 14 of the VR device 10. As shown in FIG.
As shown in FIG. 2 , a video 200 distributed from the distribution server 20 is displayed on the display unit 14 . Two performers 201 and 202 are displayed in the image 200, and the viewer can specify the performer and give money to the specified performer. In this case, in the image 200, a billing button 203 for instructing the execution of billing processing is superimposed on the side of the performer 201 specified as a billing object (a tipping object) as will be described later. The billing button 203 is added with a billing amount determined as described later.
FIG. 3 shows another display example of the display unit 14 of the VR device 10. As shown in FIG. It is the same that the charge button is superimposed on the side of the performer 201 specified as the charge target, but the charge button 301 is added with the information of the performer specified as the charge target so that the charge target can be confirmed. It is The performer's information may be, for example, the name and icon of the performer, an image cut out from the video 200, and the like.

以下、VR機器10の動作について説明する。
まず、図4を参照して、ユーザ(以下、視聴者という)がオンライン配信される映像を視聴する前に、VR機器10が実行する処理を説明する。図4は、VR機器10が実行する処理を示すフローチャートである。
ステップS401で、制御部11は、通信部17を介して配信サーバ20と通信を行い、配信者情報を取得して、RAM16に保存する。配信者情報は、配信者のアカウント情報や映像を視聴するために必要なストリーミング情報を含む。また、配信者情報は、配信者が配信する映像中の課金対象の情報を含む。例えば映像に複数の出演者(配信者自身である場合もあるし、配信者とは異なる人物である場合もある)が含まれる場合に、課金対象となるか否かの情報が含まれる。また、出演者の名前やアイコン等の情報が含まれるようにしてもよい。
The operation of the VR device 10 will be described below.
First, with reference to FIG. 4, a process executed by the VR device 10 before a user (hereinafter referred to as a viewer) views an online-delivered video will be described. FIG. 4 is a flow chart showing processing executed by the VR device 10 .
In step S<b>401 , the control unit 11 communicates with the distribution server 20 via the communication unit 17 to acquire distributor information and store it in the RAM 16 . The distributor information includes the distributor's account information and streaming information necessary for viewing the video. Further, the distributor information includes billing target information in the video distributed by the distributor. For example, when a video includes a plurality of performers (either the distributor himself or a different person from the distributor), information on whether or not to be billed is included. Information such as performer names and icons may also be included.

ステップS402で、制御部11は、通信部17を介して配信サーバ20と通信を行い、視聴者情報を取得して、RAM16に保存する。なお、配信サーバ20から取得するとしたが、VR機器10内に保持されている視聴者情報を取得するようにしてもよい。視聴者情報は、視聴者のアカウント情報を含む。視聴者情報には、投げ銭するときの支払いに関する情報等が含まれる。 In step S<b>402 , the control unit 11 communicates with the distribution server 20 via the communication unit 17 to acquire viewer information and store it in the RAM 16 . Although it is assumed that the viewer information is obtained from the distribution server 20, the viewer information held in the VR device 10 may be obtained. Viewer information includes viewer account information. The viewer information includes information regarding payment when tipping.

ステップS403で、制御部11は、視聴者の心拍数の平均値を設定する。具体的には、制御部11は、通信部17を介してコントローラ30と通信を行い、視聴者の心拍数の平均値を取得するための制御信号を送信する。コントローラ30は、通信部32を介して、VR機器10から制御情報を受信する。コントローラ30の制御部31は、VR機器10からの制御情報に基づいて、ヘルスケア情報取得部33から視聴者の心拍数を取得する。制御部31は、所定の時間内に複数回の心拍数を取得して、その平均値を算出する。この平均値は、例えば所定の時間内に所定の回数取得した心拍数に対しての平均値である。制御部31は、視聴者の心拍数の平均値を、通信部32介してVR機器10に送信する。VR機器10の制御部11は、通信部17を介して、コントローラ30から視聴者の心拍数の平均値を受信し、RAM16に保存する。なお、視聴者の心拍数の平均値は、VR機器10が所定の時間内に通信部17を介してコントローラ30から心拍数を随時受信することで、VR機器10側で算出するようにしてもよい。 In step S403, the control unit 11 sets the average heart rate of the viewer. Specifically, the control unit 11 communicates with the controller 30 via the communication unit 17 and transmits a control signal for acquiring the average heart rate of the viewer. The controller 30 receives control information from the VR device 10 via the communication unit 32 . The control unit 31 of the controller 30 acquires the viewer's heart rate from the healthcare information acquisition unit 33 based on the control information from the VR device 10 . The control unit 31 acquires a plurality of heartbeats within a predetermined period of time and calculates the average value. This average value is, for example, an average value of heart rate values obtained a predetermined number of times within a predetermined period of time. The control unit 31 transmits the average heart rate of the viewer to the VR device 10 via the communication unit 32 . The control unit 11 of the VR device 10 receives the heart rate average value of the viewer from the controller 30 via the communication unit 17 and stores it in the RAM 16 . Note that the average heart rate of the viewer may be calculated on the VR device 10 side by receiving the heart rate from the controller 30 via the communication unit 17 within a predetermined period of time. good.

ステップS404で、制御部11は、満足度に対する閾値を設定する。後述するように、コントローラ30から取得する視聴者の心拍数に基づいて、「満足度」と呼ぶユーザの感情を表す指標を算出するが、これに対する閾値を設定する。例えばステップS403で設定した心拍数の平均値に所定の係数を乗算した値を閾値とする。このようにオンライン配信の視聴前のユーザの心拍数に基づいて、満足度に対する閾値を設定する。
なお、視聴者がオンライン配信される映像を視聴する直前に実行することを想定したフローチャートを説明したが、例えばステップS403、S404の処理は、初期設定時や操作部13の操作に応じた任意のタイミングで実行するようにしてもよい。
In step S404, the control unit 11 sets a threshold for satisfaction. As will be described later, based on the viewer's heart rate obtained from the controller 30, an index called "satisfaction level" representing the user's emotion is calculated, and a threshold value for this is set. For example, the threshold is a value obtained by multiplying the average value of the heart rate set in step S403 by a predetermined coefficient. In this way, the threshold for satisfaction is set based on the user's heart rate before viewing the online distribution.
Although the flow chart has been described assuming that it is executed immediately before the viewer views the video distributed online, for example, the processing of steps S403 and S404 can be performed at any time during initial setting or according to the operation of the operation unit 13. It may be executed in time.

次に、図5及び図6を参照して、視聴者がオンライン配信される映像を視聴するときに、VR機器10が実行する処理を説明する。図5は、VR機器10が実行する処理を示すフローチャートである。
ステップS501で、制御部11は、視聴者のヘルスケア情報を取得する。具体的には、制御部11は、通信部17を介してコントローラ30と通信を行い、視聴者の心拍数を取得するための制御信号を送信する。コントローラ30は、通信部32を介して、VR機器10から制御情報を受信する。コントローラ30の制御部31は、VR機器10からの制御情報に基づいて、ヘルスケア情報取得部33から視聴者の心拍数を取得して、通信部32を介してVR機器10に送信する。なお、各時刻での視聴者の心拍数を取得するようにしてもよいし、一定の期間ごとの心拍数の平均値を取得するようにしてもよい。
Next, with reference to FIGS. 5 and 6, processing executed by the VR device 10 when a viewer views video distributed online will be described. FIG. 5 is a flow chart showing processing executed by the VR device 10 .
In step S501, the control unit 11 acquires the viewer's healthcare information. Specifically, the control unit 11 communicates with the controller 30 via the communication unit 17 and transmits a control signal for acquiring the heart rate of the viewer. The controller 30 receives control information from the VR device 10 via the communication unit 32 . The control unit 31 of the controller 30 acquires the viewer's heart rate from the healthcare information acquisition unit 33 based on the control information from the VR device 10 and transmits it to the VR device 10 via the communication unit 32 . It should be noted that the heart rate of the viewer at each time may be obtained, or the average value of the heart rate for each fixed period may be obtained.

ステップS502で、制御部11は、ステップS501で取得したヘルスケア情報に基づいて、「満足度」と呼ぶ視聴者の感情を表す指標を算出する。満足度は、視聴者の感情の高まりを数値化したものであり、例えばステップS501で取得した心拍数に所定の係数を乗算した値や、視聴者に関する他の情報と組み合わせて重み付けを行った値である。視聴者に関する他の情報は、例えばまばたきの回数等である。重み付けの方法は、例えば直近のヘルスケア情報を重視するために、過去のヘルスケア情報の重みを減少させる加重移動平均等を用いる。なお、本実施形態では、指標を満足度と呼ぶが、その呼び方はどのようなものでもよく、例えば感情の高まりの度合い、興奮度、没入度、集中度等のように呼んでもよい。 In step S502, the control unit 11 calculates an index called "satisfaction level" representing the viewer's emotion based on the healthcare information acquired in step S501. The degree of satisfaction is a numerical representation of the heightened emotions of the viewer. For example, a value obtained by multiplying the heart rate obtained in step S501 by a predetermined coefficient, or a weighted value in combination with other information about the viewer. is. Other information about the viewer is, for example, the number of blinks. As a weighting method, for example, a weighted moving average or the like that reduces the weight of past healthcare information is used in order to emphasize recent healthcare information. In the present embodiment, the index is called a satisfaction level, but it can be called in any way, for example, the degree of heightened emotion, the degree of excitement, the degree of immersion, the degree of concentration, and the like.

ステップS503で、制御部11は、ステップS501で算出した満足度が、ステップS404で設定した閾値以上であるか否かを判定する。制御部11は、満足度が閾値以上であると判定した場合、ステップS504の処理に移行し、そうでない場合、ステップS501の処理に戻る。 In step S503, the control unit 11 determines whether or not the degree of satisfaction calculated in step S501 is greater than or equal to the threshold set in step S404. If the control unit 11 determines that the degree of satisfaction is greater than or equal to the threshold value, it proceeds to the process of step S504; otherwise, it returns to the process of step S501.

ステップS504で、制御部11は、課金ボタン表示処理を行う。課金ボタン表示処理については、図6を用いて後述する。 In step S504, the control unit 11 performs charging button display processing. The billing button display process will be described later with reference to FIG.

ステップS505で、制御部11は、ステップS504の課金ボタン表示処理によって表示部14に課金ボタン(図2、3に示すような課金ボタン203、301)が表示されたか否かを判定する。制御部11は、課金ボタンが表示されたと判定した場合、ステップS506の処理に移行し、そうでない場合、ステップS501の処理に戻る。 In step S505, the control unit 11 determines whether or not the charging buttons (charging buttons 203 and 301 as shown in FIGS. 2 and 3) are displayed on the display unit 14 by the charging button display processing in step S504. If the control unit 11 determines that the billing button has been displayed, it proceeds to the process of step S506; otherwise, it returns to the process of step S501.

ステップS506で、制御部11は、視線検出部12を介して視聴者の視線情報を検出する。視線情報は、例えば視聴者の視線の向きや位置、視聴者のまばたきの回数のうち少なくとも1つである。 In step S<b>506 , the control unit 11 detects the viewer's line-of-sight information via the line-of-sight detection unit 12 . The line-of-sight information is, for example, at least one of the direction and position of the viewer's line of sight and the number of times the viewer blinks.

ステップS507で、制御部11は、ステップS506で検出した視線情報に基づいて、視聴者は課金処理を許可したか否かを判定する。例えば表示部14に表示される課金ボタンを視聴者が所定の時間だけ注視したか否かで、課金処理を許可したか否かを判定する。この場合、視聴者があとどれだけ注視すると課金処理を許可したことになるか認識できるようにインジケータのアイコンを表示するようにしてもよい。或いは、表示部14に表示される課金ボタンを見ながら所定の時間内に所定の回数まばたきを行ったか否かで、課金処理を許可したか否かを判定するようにしてもよい。制御部11は、視聴者が課金処理を許可したと判定した場合、ステップS508の処理に移行し、そうでない場合、ステップS509の処理に移行する。 In step S507, the control unit 11 determines whether or not the viewer has permitted the billing process based on the line-of-sight information detected in step S506. For example, it is determined whether or not the charging process has been permitted based on whether or not the viewer gazes at the charging button displayed on the display unit 14 for a predetermined period of time. In this case, an indicator icon may be displayed so that the viewer can recognize how long the viewer must pay attention to allow the billing process. Alternatively, it may be determined whether or not the billing process is permitted based on whether or not the user blinks a predetermined number of times within a predetermined period of time while looking at the billing button displayed on the display unit 14 . If the control unit 11 determines that the viewer has permitted the billing process, the process proceeds to step S508; otherwise, the process proceeds to step S509.

ステップS508で、制御部11は、課金処理を実行する。制御部11は、通信部17を介して配信サーバ20に課金処理を実行するための情報を送信する。課金処理を実行するための情報は、例えば課金を行う視聴者のアカウント情報や課金先のアカウント情報である。配信サーバ20の制御部21は、通信部24を介してVR機器10から課金処理を実行するための情報を受信して、課金処理を実行する。制御部21は、課金処理の実行が完了すると、通信部24を介して、課金処理の実行が完了した旨をVR機器10に送信する。VR機器10の制御部11は、通信部17を介して配信サーバ20から課金処理が完了した旨を受信し、課金処理を完了する。 In step S508, the control unit 11 executes billing processing. The control unit 11 transmits information for executing billing processing to the distribution server 20 via the communication unit 17 . The information for executing the billing process is, for example, the account information of the viewer who performs the billing and the account information of the billing destination. The control unit 21 of the distribution server 20 receives information for executing billing processing from the VR device 10 via the communication unit 24, and executes billing processing. After completing the billing process, the control unit 21 notifies the VR device 10 of the completion of the billing process via the communication unit 24 . The control unit 11 of the VR device 10 receives the completion of the billing process from the distribution server 20 via the communication unit 17, and completes the billing process.

ステップS509で、制御部11は、表示部14における課金ボタンの表示を停止し、課金ボタンを削除する。 In step S509, the control unit 11 stops displaying the charge button on the display unit 14 and deletes the charge button.

ここで、図6を参照して、図5のステップS504の課金ボタン表示処理の詳細を説明する。
ステップS601で、制御部11は、図5のステップS502又は後述するステップS614で算出した満足度が、RAM16に保存された満足度の最大値よりも高いか否かを判定する。なお、最大値の初期値としては、所定の値(例えば0)が用いられる。制御部11は、満足度が最大値よりも高いと判定した場合、ステップS602の処理に移行し、そうでない場合、ステップS603の処理に移行する。
ステップS602で、制御部11は、RAM16に保存された満足度の最大値を更新する。ステップS601、S602の処理は、RAM16に保存する満足度の最大値が、ステップS601~S608、S613、S614の繰り返し処理における最大値となるように動作することを目的としている。
Details of the charging button display processing in step S504 of FIG. 5 will be described below with reference to FIG.
In step S601, the control unit 11 determines whether the satisfaction level calculated in step S502 of FIG. A predetermined value (for example, 0) is used as the initial value of the maximum value. If the control unit 11 determines that the degree of satisfaction is higher than the maximum value, it proceeds to the process of step S602, otherwise it proceeds to the process of step S603.
In step S<b>602 , the control unit 11 updates the maximum satisfaction level stored in the RAM 16 . The processing of steps S601 and S602 is intended to operate so that the maximum value of the degree of satisfaction stored in the RAM 16 becomes the maximum value in repeated processing of steps S601 to S608, S613 and S614.

ステップS603で、制御部11は、視線検出部12を介して視聴者の視線位置を検出する。
ステップS604で、制御部11は、ステップS602で検出した視聴者の視線位置に基づいて、表示部14に表示された映像中の出演者を検出する。このとき、制御部11が、表示部14に表示された映像を解析し、映像中の顔の検出や顔認識した結果を用いてもよい。
ステップS605で、制御部11は、図4のステップS401でRAM16に保存した配信者情報を参照して、ステップS604で検出した出演者の情報を取得する。
ステップS606で、制御部11は、ステップS604で検出した出演者が課金対象であるか否かを判定する。出演者が課金対象であるか否かの判定は、図4のステップS401でRAM16に保存した配信者情報を参照すればよい。或いは、配信サーバ20と通信を行い、配信サーバ20が保持する配信者情報を参照してもよい。制御部11は、出演者が課金対象であると判定した場合、ステップS607の処理に移行し、そうでない場合、課金ボタン表示処理を終了して、図5のステップS505の処理に移行する。
ステップS607で、制御部11は、ステップS604で検出した出演者が課金対象であると特定して、課金対象のアカウント情報をRAM16に保存する。
In step S<b>603 , the control unit 11 detects the viewer's line-of-sight position via the line-of-sight detection unit 12 .
In step S604, the control unit 11 detects performers in the video displayed on the display unit 14 based on the viewer's gaze position detected in step S602. At this time, the control unit 11 may analyze the image displayed on the display unit 14 and use the result of face detection or face recognition in the image.
In step S605, the control unit 11 refers to the distributor information stored in the RAM 16 in step S401 of FIG. 4, and acquires the performer information detected in step S604.
In step S606, the control unit 11 determines whether or not the performer detected in step S604 is charged. To determine whether or not the performer is subject to billing, refer to the distributor information stored in the RAM 16 in step S401 of FIG. Alternatively, the distributor information held by the distribution server 20 may be referred to by communicating with the distribution server 20 . If the control unit 11 determines that the performer is to be billed, the process proceeds to step S607; otherwise, the billing button display process is terminated, and the process proceeds to step S505 in FIG.
In step S<b>607 , the control unit 11 specifies that the performer detected in step S<b>604 is to be billed, and saves account information of the billing object in the RAM 16 .

ステップS608で、制御部11は、図5のステップS502又は後述するステップS614で算出した満足度が、ステップS404で設定した閾値を下回るか否かを判定する。制御部11は、満足度が閾値を下回ると判定した場合、ステップS609の処理に移行し、そうでない場合、ステップS614の処理に移行する。ステップS608は、視聴者が映像に集中している間に、コンテンツである映像に元々は含まれていない課金のための表示が行われるのを抑制することを目的としている。すなわち、視聴者の満足度が高くなった状態で(ステップS503でYES)、その状態が維持されている間、換言すれば視聴者が映像に集中している間は、S601~S608、S613、S614の繰り返し処理を行う。そして、視聴者の満足度が下がったタイミング(ステップS608でYES)、換言すれば視聴者がやや落ち着いたタイミングで、ステップS609の処理に移行し、課金のための表示を行う処理を開始するようにしている。
なお、ステップS608で使用する閾値を、ステップS503で使用する閾値と同じとしたが、別の閾値としてもよい。満足度が閾値以上になった後に(ステップS503でYES)、所定の範囲に収まるまで満足度を算出することを繰り返し、所定の範囲に収まったとき、課金のための表示を行う処理を開始するようにすればよい。
In step S608, the control unit 11 determines whether the degree of satisfaction calculated in step S502 of FIG. 5 or step S614 described later is below the threshold set in step S404. If the control unit 11 determines that the degree of satisfaction is less than the threshold, it proceeds to the processing of step S609; otherwise, it proceeds to the processing of step S614. The purpose of step S608 is to suppress display for billing that is not originally included in the content video while the viewer is concentrating on the video. That is, while the viewer's satisfaction level is high (YES in step S503), while that state is maintained, in other words, while the viewer is concentrating on the video, steps S601 to S608, S613, Repeat processing of S614 is performed. Then, at the timing when the viewer's satisfaction level has decreased (YES in step S608), in other words, at the timing when the viewer has calmed down a little, the process proceeds to step S609, and the process of displaying for billing is started. I have to.
Although the threshold used in step S608 is the same as the threshold used in step S503, a different threshold may be used. After the degree of satisfaction reaches or exceeds the threshold value (YES in step S503), the calculation of the degree of satisfaction is repeated until it falls within a predetermined range, and when it falls within the predetermined range, the process of displaying for billing is started. You should do it like this.

ステップS609で、制御部11は、満足度の低下率である降下速度が、所定の低下率を表す閾値以下であるか否かを判定する。制御部11は、満足度の降下速度が閾値以下であると判定した場合、ステップS610の処理に移行し、そうでない場合、ステップS615の処理に移行する。ステップS609は、視聴者の満足度が著しく下がった場合に、課金のための表示は行わず、投げ銭を促さないようにすることを目的としている。 In step S609, the control unit 11 determines whether or not the descent speed, which is the rate of decrease in satisfaction, is equal to or less than a threshold representing a predetermined rate of decrease. If the control unit 11 determines that the rate of decrease in the satisfaction level is equal to or less than the threshold, the process proceeds to step S610, otherwise, the process proceeds to step S615. The purpose of step S609 is not to display a billing indication and not to encourage tipping when the satisfaction level of the viewer is remarkably lowered.

ステップS610で、制御部11は、課金額を決定する。課金額は、例えばRAM16に保存された満足度の最大値に基づいて決定されるようにすればよい。また、課金額は、予め視聴者が設定した金額としてもよい。
ステップS611で、制御部11は、課金ボタンの表示位置を決定する。課金ボタンの表示位置は、例えばステップS603で取得した視聴者の視線位置に基づいて決定されるようにすればよい。また、課金ボタンの表示位置は、例えば出演者の顔の傍に表示する等、予め視聴者が設定した位置としてもよい。
ステップS612で、制御部11は、配信サーバ20から配信される映像に重畳させて、ステップS611で決定した表示位置に、ステップS601で決定した課金額が付加された課金ボタンを表示する。これにより、図2、3に示すような表示が行われることになる。そして、制御部11は、課金ボタン表示処理を終了して、図5のステップS505の処理に移行する。
In step S610, the control unit 11 determines the billing amount. The billing amount may be determined based on the maximum satisfaction level stored in the RAM 16, for example. Also, the billing amount may be set in advance by the viewer.
In step S611, the control unit 11 determines the display position of the charge button. The display position of the charging button may be determined, for example, based on the viewer's line-of-sight position acquired in step S603. Also, the display position of the billing button may be set in advance by the viewer, such as displaying it near the performer's face.
In step S612, the control unit 11 superimposes the billing button on the video distributed from the distribution server 20 and displays the billing button to which the billing amount determined in step S601 is added at the display position determined in step S611. As a result, the display as shown in FIGS. 2 and 3 is performed. Then, the control unit 11 ends the billing button display process, and proceeds to the process of step S505 in FIG.

ステップS613で、制御部11は、視聴者のヘルスケア情報を取得する。なお、ステップS613の処理は、ステップS501と同様であり、その詳細な説明を省略する。
ステップS614で、制御部11は、ステップS613で取得したヘルスケア情報に基づいて、満足度を算出する。なお、ステップS614の処理は、ステップS501と同様であり、その詳細な説明を省略する。
In step S613, the control unit 11 acquires the viewer's healthcare information. Note that the processing of step S613 is the same as that of step S501, and detailed description thereof will be omitted.
At step S614, the control unit 11 calculates the degree of satisfaction based on the healthcare information acquired at step S613. Note that the processing of step S614 is the same as that of step S501, and detailed description thereof will be omitted.

ステップS615で、制御部11は、RAM16に保存された満足度の最大値をリセットして、初期値にする。そして、制御部11は、課金ボタン表示処理を終了して、図5のステップS505の処理に移行する。 In step S615, the control unit 11 resets the maximum satisfaction level stored in the RAM 16 to the initial value. Then, the control unit 11 ends the billing button display process, and proceeds to the process of step S505 in FIG.

以上述べたように、オンライン配信の視聴中の視聴者のヘルスケア情報に基づいて、満足度を算出する。そして、満足度に応じて、オンライン配信の視聴中の視聴者の視線に基づいて、課金対象を特定し、オンライン配信される映像に重畳させて、特定した課金対象に対する課金処理のための表示を行う制御を実行する。これにより、視聴者の没入感を損なうことなく、視聴者が所望する課金対象に対して課金を行うことが可能になる。特にユーザがコンテンツに参加することで没入感を売りにしているVR配信において、没入感を損なわないようにすることができる。 As described above, the degree of satisfaction is calculated based on the healthcare information of the viewer who is viewing the online distribution. Then, according to the degree of satisfaction, the billing target is specified based on the line of sight of the viewer watching the online distribution, and the display for billing processing for the identified billing target is superimposed on the video distributed online. to perform control. As a result, it is possible to charge for the charging target desired by the viewer without impairing the viewer's sense of immersion. Especially in VR distribution that sells the sense of immersion by allowing users to participate in content, it is possible to prevent the sense of immersion from being impaired.

なお、本実施形態では、映像中の人物が課金対象となるものとしたが、物が課金対象となってもよい。
また、本発明でいうユーザの状態に関する状態情報としてヘルスケア情報を述べたが、これに加えて又はこれに替えて、他の情報を利用してもよい。具体的には、ユーザの顔や身体の動きを検出し、その情報に基づいて、満足度を算出するようにしてもよい。例えばユーザの口角の上がり具合や口の開け具合、眉毛の上がり具合で、笑顔や驚きの度合いを求めて、満足度を算出すればよい。或いは、オンライン配信される映像がコンサート映像であるような場合、ユーザが大きく動いたり、歌ったりしていることを検出して、満足度を算出すればよい。
Note that in the present embodiment, the person in the video is the object of the charge, but the object may also be the object of the charge.
Also, health care information has been described as status information relating to the user's status in the present invention, but other information may be used in addition to or instead of this. Specifically, the motion of the user's face or body may be detected, and the degree of satisfaction may be calculated based on the information. For example, the level of satisfaction may be calculated by obtaining the degree of smile or surprise based on how the corners of the user's mouth is raised, how the mouth is opened, or how the eyebrows are raised. Alternatively, if the video distributed online is a concert video, the degree of satisfaction may be calculated by detecting that the user is making large movements or singing.

以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
As described above, the present invention has been described together with the embodiments, but the above-described embodiments merely show specific examples for carrying out the present invention, and the technical scope of the present invention is not construed in a limited manner. It should not be. That is, the present invention can be embodied in various forms without departing from its technical concept or main features.
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

10:VR機器、11:制御部、12:視線検出部、13:操作部、14:表示部、15:ROM、16:RAM、17:通信部、18:内部バス、20:配信サーバ、30:コントローラ、40:ネットワーク 10: VR device, 11: control unit, 12: line-of-sight detection unit, 13: operation unit, 14: display unit, 15: ROM, 16: RAM, 17: communication unit, 18: internal bus, 20: distribution server, 30 : controller, 40: network

Claims (12)

オンライン配信される映像を視聴するのに利用される情報処理装置であって、
ユーザの状態に関する状態情報を取得する取得手段と、
前記取得手段で取得したオンライン配信の視聴中のユーザの前記状態情報に基づいて、ユーザの感情を表す指標を算出する指標算出手段と、
ユーザの視線の向き及び位置のうち少なくとも1つを検出する視線検出手段と、
前記指標算出手段で算出した前記指標に応じて、前記視線検出手段で検出したオンライン配信の視聴中のユーザの視線の向き及び位置のうち少なくとも1つに基づいて、課金対象を特定し、オンライン配信される映像に重畳させて、特定した前記課金対象に対する課金処理のための表示を行う制御を実行する制御手段とを備えたことを特徴とする情報処理装置。
An information processing device used for viewing video distributed online,
Acquisition means for acquiring state information about a user's state;
index calculation means for calculating an index representing a user's emotion based on the state information of the user viewing the online distribution acquired by the acquisition means;
a line-of-sight detection means for detecting at least one of the direction and position of the user's line of sight;
According to the index calculated by the index calculation means, a billing target is specified based on at least one of the direction and position of the line of sight of the user watching the online distribution detected by the line of sight detection means, and the online distribution is performed. and a control means for superimposing a display for charging processing on the specified charging target by superimposing the display on the image to be charged.
前記状態情報は、少なくとも心拍数又は脈拍を含むことを特徴とする請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said state information includes at least heart rate or pulse. 前記取得手段は、ウェアラブルコントローラから前記状態情報を取得することを特徴とする請求項1又は2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein said acquisition means acquires said state information from a wearable controller. 前記指標は、ユーザの感情の高まりを数値化したものであり、
前記制御手段は、前記指標算出手段で算出した前記指標が閾値以上になったとき、前記制御を実行することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
The index is a numerical representation of the heightened emotion of the user,
4. The information processing apparatus according to any one of claims 1 to 3, wherein said control means executes said control when said index calculated by said index calculation means is greater than or equal to a threshold value.
前記制御手段は、前記指標算出手段で算出した前記指標が前記閾値以上になった後、前記指標が所定の範囲に収まるまで前記指標算出手段で前記指標を算出することを繰り返し、前記所定の範囲に収まったとき、前記課金処理のための表示を行うことを特徴とする請求項4に記載の情報処理装置。 After the index calculated by the index calculation means becomes equal to or greater than the threshold value, the control means repeats calculation of the index by the index calculation means until the index falls within the predetermined range. 5. The information processing apparatus according to claim 4, wherein the display for the billing process is performed when the number falls within. 前記制御手段は、前記指標算出手段で算出した前記指標が前記閾値以上になった後、前記指標算出手段で算出した前記指標の低下率が所定の低下率を超えたときは、前記課金処理のための表示を行わないことを特徴とする請求項4又は5に記載の情報処理装置。 After the index calculated by the index calculation means has reached or exceeded the threshold value, the control means controls the charging process when the decrease rate of the index calculated by the index calculation means exceeds a predetermined decrease rate. 6. The information processing apparatus according to claim 4, wherein the display for the purpose is not performed. 前記取得手段で取得したオンライン配信の視聴前のユーザの前記状態情報に基づいて、前記閾値を設定する設定手段を備えたことを特徴とする請求項4乃至6のいずれか1項に記載の情報処理装置。 7. The information according to any one of claims 4 to 6, further comprising setting means for setting said threshold value based on said state information of said user before viewing online distribution obtained by said obtaining means. processing equipment. 前記制御手段が前記課金処理のための表示を行った状態で、前記視線検出手段で検出したオンライン配信の視聴中のユーザの視線の向き及び位置のうち少なくとも1つに基づいて、特定した前記課金対象に対する課金処理を実行する実行手段を備えたことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。 The billing specified based on at least one of the line-of-sight direction and position of the user viewing the online distribution detected by the line-of-sight detection means while the control means displays the display for the billing process. 8. The information processing apparatus according to any one of claims 1 to 7, further comprising execution means for executing billing processing for an object. 前記制御手段は、課金処理の実行を指示するためのボタンを表示することを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。 9. The information processing apparatus according to any one of claims 1 to 8, wherein said control means displays a button for instructing execution of charging processing. 前記制御手段は、特定した前記課金対象の情報を表示することを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 10. The information processing apparatus according to any one of claims 1 to 9, wherein said control means displays information on said specified billing object. オンライン配信される映像を視聴するのに利用される情報処理方法であって、
オンライン配信の視聴中のユーザの状態に関する状態情報に基づいて、ユーザの感情を表す指標を算出するステップと、
前記指標に応じて、オンライン配信の視聴中のユーザの視線の向き及び位置のうち少なくとも1つに基づいて、課金対象を特定し、オンライン配信される映像に重畳させて、特定した前記課金対象に対する課金処理のための表示を行う制御を実行するステップとを有することを特徴とする情報処理方法。
An information processing method used for viewing video distributed online, comprising:
calculating an index representing the user's emotion based on state information about the state of the user while viewing the online distribution;
According to the index, a billing target is specified based on at least one of the direction and position of the user's line of sight while viewing the online distribution, and the specified billing target is superimposed on the video distributed online. and a step of executing control for performing display for billing processing.
オンライン配信される映像を視聴するのに利用されるプログラムであって、
オンライン配信の視聴中のユーザの状態に関する状態情報に基づいて、ユーザの感情を表す指標を算出する処理と、
前記指標に応じて、オンライン配信の視聴中のユーザの視線の向き及び位置のうち少なくとも1つに基づいて、課金対象を特定し、オンライン配信される映像に重畳させて、特定した前記課金対象に対する課金処理のための表示を行う制御を実行する処理とをコンピュータに実行させるためのプログラム。
A program used for viewing video distributed online,
a process of calculating an index representing the user's emotion based on state information about the user's state during viewing of online distribution;
According to the index, a billing target is specified based on at least one of the direction and position of the user's line of sight while viewing the online distribution, and the specified billing target is superimposed on the video distributed online. A program for causing a computer to execute processing for performing display control for billing processing.
JP2021196905A 2021-12-03 2021-12-03 Information processing device, method, and program Pending JP2023082903A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021196905A JP2023082903A (en) 2021-12-03 2021-12-03 Information processing device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021196905A JP2023082903A (en) 2021-12-03 2021-12-03 Information processing device, method, and program

Publications (1)

Publication Number Publication Date
JP2023082903A true JP2023082903A (en) 2023-06-15

Family

ID=86728786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021196905A Pending JP2023082903A (en) 2021-12-03 2021-12-03 Information processing device, method, and program

Country Status (1)

Country Link
JP (1) JP2023082903A (en)

Similar Documents

Publication Publication Date Title
US11679324B2 (en) Information processing device and information processing method
US10430985B2 (en) Augmented reality systems and methods utilizing reflections
US10614586B2 (en) Quantifying user engagement using pupil size measurements
JP2021027917A (en) Information processing device, information processing system, and machine learning device
US11882338B2 (en) System, method, and computer-readable medium including program for distributing live video
US11644893B2 (en) Application processing system, method of processing application, and storage medium storing program for processing application
WO2020042542A1 (en) Method and apparatus for acquiring eye movement control calibration data
JP2018007792A (en) Expression recognition diagnosis support device
JPWO2020152779A1 (en) Rehabilitation system and image processing device for higher brain dysfunction
CN110433062B (en) Visual function training system based on dynamic video images
KR102272468B1 (en) Method and device for providing alopecia information
DE112021000578T5 (en) INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING TERMINAL
JP6868673B1 (en) Information processing equipment, information processing methods, and information processing programs
JP2023082903A (en) Information processing device, method, and program
US9760772B2 (en) Eye image stimuli for eyegaze calibration procedures
US11328187B2 (en) Information processing apparatus and information processing method
JP2015204597A (en) Intra-game-parlor management system
DE112021000541T5 (en) INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING TERMINAL
DE112021000549T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING TERMINAL AND PROGRAM
CN107426484A (en) The acquisition method and device of multimedia messages
JP6757983B2 (en) Evaluation device and evaluation system
JP2021092883A (en) Information processing device, information processing method, and program
JP7442838B2 (en) Emotion estimation device, emotion estimation method, and program
KR102647730B1 (en) Interactive training system and image warping model learning method for autistic patient using image warping
JP7442097B2 (en) Video distribution system, video distribution method, and video distribution program