WO2018155354A1 - Electronic device control method, electronic device control system, electronic device, and program - Google Patents

Electronic device control method, electronic device control system, electronic device, and program Download PDF

Info

Publication number
WO2018155354A1
WO2018155354A1 PCT/JP2018/005616 JP2018005616W WO2018155354A1 WO 2018155354 A1 WO2018155354 A1 WO 2018155354A1 JP 2018005616 W JP2018005616 W JP 2018005616W WO 2018155354 A1 WO2018155354 A1 WO 2018155354A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
content
information
control
presentation
Prior art date
Application number
PCT/JP2018/005616
Other languages
French (fr)
Japanese (ja)
Inventor
旭 谷口
敦宏 辻
幸 裕弘
坂井 剛
羊佑 塩田
浩充 森下
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017189955A external-priority patent/JP2020065097A/en
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2018155354A1 publication Critical patent/WO2018155354A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration

Abstract

This electronic device control method comprises: a step (S1) for obtaining environmental information of an electronic device, the information including information about the environment surrounding the electronic device or information about the installation mode of the electronic device; and a step (S2) for performing, with reference to predetermined association between the environmental information of the electronic device and details of control regarding content presentation by the electronic device, a control regarding a content presentation by the electronic device, the content presentation being associated with the obtained environmental information. For example, the environmental information may include, as the information about the environment surrounding the electronic device, information indicating the presence or absence of a person around the electronic device, the orientation of the person around the electronic device, the direction in which the person is present around when viewed from the electronic device, the brightness in the surrounding area of the electronic device, or the sound volume in the surrounding area of the electronic device, and the environmental information may be obtained by a sensor which senses the environment surrounding the electronic device and outputs an environmental value indicating the environment.

Description

電子機器の制御方法、電子機器の制御システム、電子機器、及び、プログラムElectronic device control method, electronic device control system, electronic device, and program
 本開示は、電子機器の制御方法、電子機器の制御システム、電子機器、及び、プログラムに関する。 The present disclosure relates to an electronic device control method, an electronic device control system, an electronic device, and a program.
 従来、複数のコンピュータ端末による映像再生を同期させるために、各コンピュータ端末の通信環境又はコンピュータ環境に応じたコンテンツを選択する技術がある(特許文献1参照)。 Conventionally, in order to synchronize video reproduction by a plurality of computer terminals, there is a technique for selecting content according to the communication environment or computer environment of each computer terminal (see Patent Document 1).
特開2006-108895号公報JP 2006-108895 A
 しかしながら、特許文献1が開示する技術では、コンピュータのハードウェア的な要因、及び、ソフトウェア的な要因を含む通信環境又はコンピュータ環境に応じたコンテンツの選択がなされるだけである。そのため、その他の要因に基づくコンテンツの選択、及び、コンテンツの提示の制御などが実現し得ないという問題がある。 However, with the technique disclosed in Patent Document 1, content is selected only in accordance with a communication environment or a computer environment including a computer hardware factor and a software factor. Therefore, there is a problem that selection of content based on other factors, control of content presentation, and the like cannot be realized.
 そこで、本開示は、電子機器のハードウェア又はソフトウェア的な要因とは異なる、電子機器の周囲の環境に応じたコンテンツの提示の制御を行う電子機器の制御方法を提供する。 Therefore, the present disclosure provides an electronic device control method for controlling the presentation of content according to the environment around the electronic device, which is different from hardware or software factors of the electronic device.
 本開示の一態様に係る電子機器の制御方法は、前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得し、前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う。 An electronic device control method according to an aspect of the present disclosure obtains environmental information of the electronic device including information about an environment around the electronic device or information about an installation mode of the electronic device, and the electronic device By referring to a predetermined association between the environment information and the details of the control related to the presentation of the content by the electronic device, the control related to the presentation of the content by the electronic device associated with the acquired environment information is performed. .
 なお、これらの包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific modes may be realized by a recording medium such as a system, an apparatus, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, apparatus, integrated circuit, and computer program. And any combination of recording media.
 本開示によれば、電子機器の周囲の環境に応じたコンテンツの提示の制御を行うことができる。 According to the present disclosure, it is possible to control the presentation of content according to the environment around the electronic device.
図1は、サービスの全体像を示す説明図である。FIG. 1 is an explanatory diagram showing an overall image of a service. 図2は、実施の形態1に係る電子機器の外観を示す模式図である。FIG. 2 is a schematic diagram illustrating an appearance of the electronic apparatus according to the first embodiment. 図3は、実施の形態1に係る電子機器の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the electronic device according to the first embodiment. 図4は、実施の形態1に係る制御処理部の詳細なブロック図である。FIG. 4 is a detailed block diagram of the control processing unit according to the first embodiment. 図5は、実施の形態1に係るコンテンツ管理部の詳細なブロック図である。FIG. 5 is a detailed block diagram of the content management unit according to the first embodiment. 図6は、実施の形態1に係る電子機器を壁に立て掛けて設置する設置態様の例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of an installation mode in which the electronic apparatus according to Embodiment 1 is installed on a wall. 図7は、実施の形態1に係る電子機器を壁に掛けて吊り下げて設置する設置態様の例を示す模式図である。FIG. 7 is a schematic diagram illustrating an example of an installation mode in which the electronic apparatus according to the first embodiment is hung and installed on a wall. 図8は、実施の形態1に係る電子機器の外観を示す斜視図である。FIG. 8 is a perspective view illustrating an appearance of the electronic apparatus according to the first embodiment. 図9は、実施の形態1に係る電子機器の分解斜視図である。FIG. 9 is an exploded perspective view of the electronic apparatus according to the first embodiment. 図10は、実施の形態1に係る電子機器の処理を示すフロー図である。FIG. 10 is a flowchart showing processing of the electronic device according to the first embodiment. 図11は、実施の形態1に係る視聴環境判定処理の第一例を示すフロー図である。FIG. 11 is a flowchart showing a first example of the viewing environment determination process according to Embodiment 1. 図12Aは、実施の形態1に係る視聴環境判定処理の第二例を示すフロー図である。FIG. 12A is a flowchart showing a second example of the viewing environment determination process according to Embodiment 1. 図12Bは、実施の形態1に係る視聴環境判定処理の第三例を示すフロー図である。FIG. 12B is a flowchart showing a third example of the viewing environment determination process according to Embodiment 1. 図12Cは、実施の形態1に係る視聴環境判定処理の第四例を示すフロー図である。FIG. 12C is a flowchart showing a fourth example of the viewing environment determination process according to Embodiment 1. 図13は、実施の形態1に係る制御内容決定処理の一例を示すフロー図である。FIG. 13 is a flowchart illustrating an example of the control content determination process according to the first embodiment. 図14は、実施の形態1における空間の状態と、出力される情報の例とを示す説明図である。FIG. 14 is an explanatory diagram illustrating the state of the space and an example of output information in the first embodiment. 図15は、実施の形態1における人物および空間の状態の推定結果を示すテーブルの説明図である。FIG. 15 is an explanatory diagram of a table showing the estimation results of the person and space states in the first embodiment. 図16は、実施の形態1における、カメラによる目配せ判定を用いた制御内容決定のためのテーブルの説明図である。FIG. 16 is an explanatory diagram of a table for determining control contents using the determination by the camera according to the first embodiment. 図17は、実施の形態1における、照度計による設置環境判定を用いた制御内容決定のためのテーブルの説明図である。FIG. 17 is an explanatory diagram of a table for determining control contents using installation environment determination by an illuminometer in the first embodiment. 図18は、実施の形態1における、3軸センサによる傾き判定を用いた制御内容決定のためのテーブルの説明図である。FIG. 18 is an explanatory diagram of a table for determining control contents using tilt determination by a three-axis sensor in the first embodiment. 図19は、実施の形態1における、上面及び下面のボタンによる設置環境判定を用いた制御内容決定のためのテーブルの説明図である。FIG. 19 is an explanatory diagram of a table for determining control contents using installation environment determination using buttons on the upper and lower surfaces in the first embodiment. 図20は、実施の形態1におけるコンテンツ管理テーブルの説明図である。FIG. 20 is an explanatory diagram of a content management table in the first embodiment. 図21は、実施の形態1における音声管理テーブルの説明図である。FIG. 21 is an explanatory diagram of a voice management table according to the first embodiment. 図22Aは、実施の形態1における視聴環境状態の変化と、コンテンツの制御との一例を示すテーブルの説明図である。FIG. 22A is an explanatory diagram of a table showing an example of a change in viewing environment state and content control in the first embodiment. 図22Bは、実施の形態1における電子機器の前方にユーザが存在する状態の説明図である。FIG. 22B is an explanatory diagram illustrating a state in which a user is present in front of the electronic device according to Embodiment 1. 図22Cは、実施の形態1における電子機器から見たユーザが存在する方向と、スピーカの出力音量との関係を示す説明図である。FIG. 22C is an explanatory diagram illustrating a relationship between the direction in which the user exists as viewed from the electronic device according to Embodiment 1 and the output volume of the speaker. 図22Dは、実施の形態1における電子機器の前方に複数のユーザが存在する状態の説明図である。FIG. 22D is an explanatory diagram illustrating a state in which a plurality of users are present in front of the electronic device according to Embodiment 1. 図22Eは、実施の形態1における、電子機器の前方に存在するユーザの人数とスピーカの出力音量との関係を示す説明図である。FIG. 22E is an explanatory diagram illustrating a relationship between the number of users existing in front of the electronic device and the output volume of the speaker in the first embodiment. 図22Fは、実施の形態1における電子機器の収音音量の説明図である。FIG. 22F is an explanatory diagram of sound collection volume of the electronic device according to Embodiment 1. 図22Gは、実施の形態1における、電子機器の収音音量とスピーカの出力音量との関係を示す説明図である。FIG. 22G is an explanatory diagram illustrating a relationship between the sound collection volume of the electronic device and the output volume of the speaker in the first embodiment. 図23は、実施の形態1の変形例に係る電子機器およびクラウドサーバの構成を示すブロック図である。FIG. 23 is a block diagram illustrating configurations of an electronic device and a cloud server according to a modification of the first embodiment. 図24は、実施の形態2に係る電子機器およびクラウドサーバの構成を示すブロック図である。FIG. 24 is a block diagram illustrating configurations of an electronic device and a cloud server according to the second embodiment. 図25は、実施の形態2に係る電子機器およびクラウドサーバの処理を示すシーケンス図である。FIG. 25 is a sequence diagram illustrating processing of the electronic device and the cloud server according to the second embodiment. 図26は、実施の形態3に係る電子機器を示すブロック図である。FIG. 26 is a block diagram illustrating an electronic apparatus according to the third embodiment. 図27は、実施の形態3に係る電子機器の制御方法を示すフロー図である。FIG. 27 is a flowchart illustrating the electronic device control method according to the third embodiment. 図28は、サービスの類型1(自社データセンタ型)を示す図である。FIG. 28 is a diagram showing service type 1 (in-house data center type). 図29は、サービスの類型2(IaaS利用型)を示す図である。FIG. 29 is a diagram showing a service type 2 (IaaS usage type). 図30は、サービスの類型3(PaaS利用型)を示す図である。FIG. 30 is a diagram illustrating a service type 3 (PaaS usage type). 図31は、サービスの類型4(SaaS利用型)を示す図である。FIG. 31 is a diagram showing a service type 4 (SaaS usage type).
 (本開示の基礎となった知見)
 本発明者は、「背景技術」の欄において記載した技術に関し、以下の問題が生じることを見出した。
(Knowledge that became the basis of this disclosure)
The inventor has found that the following problems occur with respect to the technique described in the “Background Art” column.
 (1)従来、複数のコンピュータ端末による映像再生を同期させるために、各コンピュータ端末の通信環境又はコンピュータ環境に応じたコンテンツを選択する技術がある(特許文献1参照)。 (1) Conventionally, in order to synchronize video reproduction by a plurality of computer terminals, there is a technique for selecting content according to the communication environment or computer environment of each computer terminal (see Patent Document 1).
 しかしながら、特許文献1が開示する技術では、コンピュータのハードウェア的な要因、及び、ソフトウェア的な要因を含む通信環境又はコンピュータ環境に応じたコンテンツの選択がなされるだけである。そのため、その他の要因に基づくコンテンツの選択、及び、コンテンツの提示の制御などが実現し得ないという問題がある。 However, with the technique disclosed in Patent Document 1, content is selected only in accordance with a communication environment or a computer environment including a computer hardware factor and a software factor. Therefore, there is a problem that selection of content based on other factors, control of content presentation, and the like cannot be realized.
 (2)従来、ユーザの環境に応じて動作を変化させる電子機器がある。例えば、コンサート会場などの映像音響装置の調光、照明発色、又は、音場の調整は、プロの整備士が調整見本又は配置を設計して個別に対応することで、個々の機器の設定をカスタマイズすることでなされている。 (2) Conventionally, there are electronic devices that change operation according to the user's environment. For example, dimming, illumination coloring, or sound field adjustment of audiovisual equipment such as a concert venue can be adjusted individually by a professional mechanic designing adjustment samples or arrangements. It is made by customizing.
 しかし、この技術では、プロの整備士自らがユーザの環境に合わせて個別に設定することが必要であり、整備士の労力が過大であるという問題がある。 However, this technique has the problem that a professional mechanic himself needs to set it individually according to the user's environment, and the mechanic's labor is excessive.
 (3)近年、映像投影型の液晶プロジェクタであって、投影画像の適正化を図るため、台形補正を行う液晶プロジェクタがある。この液晶プロジェクタでは、画像の歪みだけは自動である程度補正することができる。 (3) In recent years, there are image projection type liquid crystal projectors that perform keystone correction in order to optimize the projected image. In this liquid crystal projector, only image distortion can be automatically corrected to some extent.
 しかし、この液晶プロジェクタでは、液晶プロジェクタ本体が投じた画像を台形補正する程度に留まる。つまり、ユーザを取り巻く環境、又は、ユーザの行動に応じて、映像音響コンテンツの再生環境を調整することはできない。そのため、ポータブル性が重視される液晶ディスプレイの設置方法、又は、ユーザの行動に応じて変化する利用環境次第では、画像が見にくい、音声が聴きにくい、又は、ユーザが欲していない映像音響コンテンツが再生され続けるなどの問題がある。 However, with this liquid crystal projector, the image cast by the liquid crystal projector itself is only corrected to a keystone. That is, it is not possible to adjust the playback environment of the audiovisual content according to the environment surrounding the user or the user's action. Therefore, depending on the installation method of the liquid crystal display where portability is important or the usage environment that changes depending on the user's behavior, it is difficult to see the image, it is difficult to hear the sound, or the audiovisual content that the user does not want to play There are problems such as being continued.
 本開示の一態様に係る電子機器の制御方法は、前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得し、前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う。 An electronic device control method according to an aspect of the present disclosure obtains environmental information of the electronic device including information about an environment around the electronic device or information about an installation mode of the electronic device, and the electronic device By referring to a predetermined association between the environment information and the details of the control related to the presentation of the content by the electronic device, the control related to the presentation of the content by the electronic device associated with the acquired environment information is performed. .
 上記態様によれば、電子機器は、取得した環境情報と、所定の対応付けとを用いてコンテンツの提示に関する制御を行う。所定の対応付けには、電子機器の環境情報と、制御の内容とが予め対応づけられている。よって、電子機器は、取得した電子機器の環境情報に基づいてコンテンツの提示に関する制御を行い得る。このように、電子機器は、電子機器の周囲の環境に応じたコンテンツの提示の制御を行うことができる。 According to the above aspect, the electronic device performs control related to the presentation of content using the acquired environment information and a predetermined association. The predetermined association is associated in advance with the environmental information of the electronic device and the content of the control. Therefore, the electronic device can perform control related to content presentation based on the acquired environmental information of the electronic device. Thus, the electronic device can control the presentation of content according to the environment around the electronic device.
 例えば、前記環境情報は、前記電子機器の周囲の環境に関する情報として、前記電子機器の周囲の人の有無、前記電子機器の周囲の人の向き、前記電子機器から見た周囲の人の方向、前記電子機器の周囲の明るさ、又は、前記電子機器の周囲の音量を示す情報を含み、前記環境情報の取得は、前記電子機器の周囲の環境を感知して前記環境を示す環境値を出力するセンサによりなされてもよい。 For example, the environmental information is information about the environment around the electronic device, the presence or absence of a person around the electronic device, the direction of the person around the electronic device, the direction of the person around the electronic device, Including information indicating brightness around the electronic device or sound volume around the electronic device, and obtaining the environment information senses the environment around the electronic device and outputs an environment value indicating the environment It may be made by a sensor.
 上記態様によれば、環境情報は、電子機器の周囲の人の有無若しくは向き、電子機器から見た周囲の人の方向、又は、周囲の明るさもしくは音量というように具体的な情報を含む。また、電子機器は、環境情報を取得するセンサを用いて具体的に構成され得る。このような具体的な構成に基づいて、電子機器は、電子機器の周囲の環境に応じたコンテンツの提示に関する制御を行うことができる。 According to the above aspect, the environmental information includes specific information such as the presence or orientation or the direction of the person around the electronic device, the direction of the person seen from the electronic device, or the ambient brightness or volume. Also, the electronic device can be specifically configured using a sensor that acquires environmental information. Based on such a specific configuration, the electronic device can perform control related to the presentation of content according to the environment around the electronic device.
 例えば、前記環境情報は、前記電子機器の周囲の人の有無、前記電子機器の周囲の人の向き、前記電子機器から見た周囲の人の方向、前記電子機器の周囲の明るさ、及び、前記電子機器の周囲の音量、の少なくとも2つを示す情報を含み、前記電子機器によるコンテンツの提示に関する制御は、上記少なくとも2つを示す情報に複合的に応じてなされるてもよい。 For example, the environmental information includes the presence / absence of a person around the electronic device, the direction of the person around the electronic device, the direction of the person around the electronic device, the brightness around the electronic device, and The information indicating at least two of the volume around the electronic device may be included, and the control related to the presentation of the content by the electronic device may be performed in combination with the information indicating the at least two.
 上記態様によれば、環境情報は、電子機器の周囲の人の有無若しくは向き、電子機器から見た周囲の人の方向、又は、周囲の明るさもしくは音量という具体的な情報を、複合的に考慮して、電子機器の周囲の環境に応じたコンテンツの提示に関する制御をより適切に行うことができる。 According to the above aspect, the environmental information is a composite of specific information such as the presence or orientation of a person around the electronic device, the direction of the person seen from the electronic device, or the ambient brightness or volume. Considering this, it is possible to more appropriately control the presentation of content according to the environment around the electronic device.
 例えば、前記コンテンツの提示に関する制御では、前記所定の対応付けを参照することで、前記センサにより取得された前記環境情報に対応付けられた前記制御の内容である、前記電子機器により提示すべきコンテンツを選択し、選択された前記コンテンツを提示する制御を行ってもよい。 For example, in the control related to the presentation of the content, the content to be presented by the electronic device, which is the content of the control associated with the environment information acquired by the sensor by referring to the predetermined association Control may be performed to select and present the selected content.
 上記態様によれば、電子機器は、コンテンツの提示に関する制御として、複数のコンテンツのうちから提示すべきコンテンツを選択することができる。 According to the above aspect, the electronic device can select a content to be presented from among a plurality of contents as control related to the presentation of the contents.
 例えば、前記所定の対応付けは、前記電子機器の環境情報と、当該環境情報に適合する環境情報を有する電子機器が提示すべきコンテンツの属性を示す属性情報との対応付けを含み、前記コンテンツの提示に関する制御では、前記所定の対応付けを参照することで、取得した前記環境情報に対応付けられた属性情報を有するコンテンツの選択を行ってもよい。 For example, the predetermined association includes an association between the environment information of the electronic device and attribute information indicating the attribute of the content to be presented by the electronic device having the environment information matching the environment information. In the control related to presentation, the content having attribute information associated with the acquired environment information may be selected by referring to the predetermined association.
 上記態様によれば、電子機器は、複数のコンテンツのうちから提示すべきコンテンツを選択する際に、コンテンツの属性情報に基づいてコンテンツを選択することができる。 According to the above aspect, the electronic device can select a content based on the attribute information of the content when selecting the content to be presented from the plurality of contents.
 例えば、前記所定の対応付けは、前記電子機器が提示すべきコンテンツと、当該コンテンツの許容される提示態様を示す許容情報とを含み、前記コンテンツの提示に関する制御では、前記許容情報によって許容される提示態様で提示できるコンテンツの選択を行ってもよい。 For example, the predetermined association includes content to be presented by the electronic device and permissible information indicating a permissible presentation mode of the content, and is permitted by the permissible information in the control related to the presentation of the content. You may select the content which can be shown with a presentation aspect.
 上記態様によれば、電子機器は、複数のコンテンツのうちから提示すべきコンテンツを選択する際に、コンテンツの提示の際におけるコンテンツの編集、調整又は加工などが許容されるか否かを示す許容情報に基づいて、コンテンツの選択をすることができる。これにより、許容されない態様でのコンテンツの提示が回避される。 According to the above aspect, when the electronic device selects a content to be presented from among a plurality of contents, the electronic device is permitted to indicate whether editing, adjustment, or processing of the content at the time of content presentation is permitted. The content can be selected based on the information. This avoids presentation of content in an unacceptable manner.
 例えば、前記所定の対応付けは、前記電子機器の環境情報の変化を示す情報と、コンテンツの提示の開始、停止又は終了との対応付けを含み、前記コンテンツの提示に関する制御では、前記所定の対応付けを参照することで、取得した前記環境情報の変化に対応付けられた、前記電子機器により提示すべきコンテンツの提示の開始、停止又は終了を行ってもよい。 For example, the predetermined association includes an association between information indicating a change in environmental information of the electronic device and start, stop, or end of content presentation. In the control related to content presentation, the predetermined correspondence By referring to the attachment, the presentation of content to be presented by the electronic device associated with the change in the acquired environment information may be started, stopped, or terminated.
 上記態様によれば、電子機器は、コンテンツの提示に関する制御として、コンテンツの提示の開始、停止又は終了を行うことができる。 According to the above aspect, the electronic device can start, stop, or end the presentation of content as control related to the presentation of content.
 例えば、前記所定の対応付けは、前記電子機器の環境情報の変化を示す情報と、コンテンツの音量又は明るさの変更との対応付けを含み、前記コンテンツの提示に関する制御では、前記所定の対応付けを参照することで、取得した前記環境情報の変化に対応付けられた、前記電子機器により提示すべきコンテンツの音量又は明るさの変更を行ってもよい。 For example, the predetermined association includes an association between information indicating a change in environmental information of the electronic device and a change in volume or brightness of the content. In the control related to the presentation of the content, the predetermined association is performed. The volume or brightness of the content to be presented by the electronic device associated with the obtained change in the environmental information may be changed.
 上記態様によれば、電子機器は、コンテンツの提示に関する制御として、コンテンツの音量又は明るさの変更を行うことができる。 According to the above aspect, the electronic device can change the volume or brightness of the content as control related to the presentation of the content.
 例えば、前記環境情報は、前記電子機器の設置態様に関する情報として、設置された前記電子機器の姿勢を示す情報を含み、前記所定の対応付けは、前記電子機器の姿勢を示す情報と、当該姿勢にある前記電子機器によるコンテンツの提示に関する制御との対応付けを含み、前記コンテンツの提示に関する制御では、前記電子機器の姿勢を示す情報に対応付けられた、コンテンツの提示に関する制御を行ってもよい。 For example, the environment information includes information indicating an attitude of the installed electronic device as information regarding an installation mode of the electronic device, and the predetermined association includes information indicating the attitude of the electronic device and the attitude In the control relating to the presentation of the content, the control relating to the presentation of the content associated with the information indicating the attitude of the electronic device may be performed. .
 上記態様によれば、環境情報は、電子機器の姿勢に関する具体的な情報を含む。そして、電子機器は、電子機器の姿勢に基づいてコンテンツの提示に関する制御を行うことができる。 According to the above aspect, the environmental information includes specific information related to the attitude of the electronic device. Then, the electronic device can perform control related to presentation of content based on the attitude of the electronic device.
 例えば、前記環境情報は、前記電子機器の設置態様に関する情報として、前記電子機器が他の電子機器とともに並べて設置されているか否かに関する情報である並置情報を含み、前記所定の対応付けは、前記電子機器の並置情報と、当該並置情報に示される設置の態様で設置された前記電子機器によるコンテンツの提示に関する制御との対応付けを含み、前記コンテンツの提示に関する制御では、前記電子機器の並置情報に対応付けられた、コンテンツの提示に関する制御を行ってもよい。 For example, the environment information includes juxtaposition information that is information on whether or not the electronic device is installed side by side with other electronic devices as information on the installation mode of the electronic device, and the predetermined association is Including the correspondence between the juxtaposition information of the electronic device and the control related to the presentation of the content by the electronic device installed in the installation mode indicated in the juxtaposition information, and in the control related to the presentation of the content, the juxtaposition information of the electronic device You may perform control regarding presentation of the content matched with this.
 上記態様によれば、環境情報は、電子機器が複数並べて配置されているか否かを示す具体的な情報を含む。そして、電子機器は、電子機器の配置のされ方に基づいてコンテンツの提示に関する制御を行うことができる。 According to the above aspect, the environment information includes specific information indicating whether or not a plurality of electronic devices are arranged side by side. Then, the electronic device can perform control related to presentation of content based on how the electronic device is arranged.
 例えば、前記制御方法では、さらに、前記コンテンツの提示に関するログ情報を出力してもよい。 For example, the control method may further output log information related to the presentation of the content.
 上記態様によれば、電子機器は、コンテンツを提示した回数、提示した時刻などを示すログ情報を出力する。出力されたログ情報は、例えばコンテンツのクリエータにフィードバックされ、コンテンツの改善、又は、新規コンテンツの作成の際に活用され得る。 According to the above aspect, the electronic device outputs log information indicating the number of times content is presented, the time of presentation, and the like. The output log information is fed back to, for example, a content creator, and can be utilized when content is improved or new content is created.
 また、本開示の一態様に係る電子機器の制御システムは、前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得する取得部と、前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う制御処理部とを備える。 In addition, an electronic device control system according to an aspect of the present disclosure includes an acquisition unit that acquires environmental information of the electronic device including information related to an environment around the electronic device or information related to an installation mode of the electronic device. And a predetermined correspondence between the environment information of the electronic device and the details of the control related to the presentation of the content by the electronic device, the content of the content by the electronic device associated with the acquired environment information is referred to A control processing unit that performs control related to presentation.
 これにより、上記電子機器の制御方法と同様の効果を奏する。 This produces the same effect as the control method of the electronic device.
 また、本開示の一態様に係る電子機器は、前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得する取得部と、前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う制御処理部とを備える。 Further, an electronic device according to an aspect of the present disclosure includes an acquisition unit that acquires environmental information of the electronic device, including information related to an environment around the electronic device, or information related to an installation mode of the electronic device, Control related to presentation of content by the electronic device associated with the acquired environment information by referring to a predetermined association between the environmental information of the electronic device and the details of control related to the presentation of content by the electronic device A control processing unit for performing
 これにより、上記電子機器の制御方法と同様の効果を奏する。 This produces the same effect as the control method of the electronic device.
 また、本開示の一態様に係るプログラムは、上記の電子機器の制御方法をコンピュータに実行させるためのプログラムである。 Also, a program according to an aspect of the present disclosure is a program for causing a computer to execute the above-described electronic device control method.
 これにより、上記電子機器の制御方法と同様の効果を奏する。 This produces the same effect as the control method of the electronic device.
 また、本開示の一態様に係る電子機器は、家庭内或いは業務用施設において映像音響コンテンツを再生する電子機器であって、再生する映像音響コンテンツを管理するコンテンツ管理部と、映像音響コンテンツを画面として出力する出力部と、映像音響コンテンツと同期または非同期で再生される音声を外部上方に出力する上部スピーカと、同じく同期または非同期で再生される音声を外部下方に出力する下部スピーカと、当該ユーザからの操作指示や外部の機器との通信を司る上方送受信部と、前記電子機器が配置された空間内の情報を取得するセンサと、前記センサによって検出された情報から、少なくとも1以上のユーザまたは利用環境の状態を推定する視聴環境推定手段を含む制御処理部と、前記制御処理部は視聴状態推定手段が推定したユーザまたは利用環境の状態に応じて、前記電子機器の制御処理部は制御内容を決定する制御内容決定手段と、を備える。 An electronic device according to an aspect of the present disclosure is an electronic device that reproduces audiovisual content in a home or a business facility, and includes a content management unit that manages the audiovisual content to be reproduced, and the audiovisual content displayed on the screen. An output unit for outputting as an audio signal, an upper speaker for outputting audio that is reproduced synchronously or asynchronously with audiovisual content to the outside, a lower speaker for outputting audio that is also reproduced synchronously or asynchronously to the outside downward, and the user From at least one or more users based on an upper transmission / reception unit that controls communication with external devices, a sensor that acquires information in a space in which the electronic device is disposed, and information detected by the sensor A control processing unit including a viewing environment estimation unit for estimating a usage environment state, and the control processing unit includes a viewing state estimation unit; Boss was in accordance with the state of the user or use environment, control processor of the electronic device comprises a control content determination means for determining a control content, the.
 また、前記電子機器は、映像再生、音声再生、照明の調光、もしくはにおいを発生する機能のうちいずれかを有し、前記制御内容決定部は、前記視聴環境推定手段を含む制御処理部が前記ユーザが起床している状態と推定している間または前記ユーザが就寝状態から起床状態に変化すると推定する時、前記電子機器にて所定の映像を再生、所定の音声を再生、所定の照明の光出力を調節、もしくは所定のにおいを発生し、前記視聴環境推定手段を含む制御処理部が前記ユーザが就寝している状態と推定している間または前記ユーザが起床状態から就寝状態に変化すると推定する時、前記電子機器にて前記所定の映像を停止または映像の内容を変更、所定の音声を停止または音声の内容を変更、所定の照明の光出力を停止または動作モードを変更、もしくは所定のにおいの発生を停止またはにおいの内容を変更する。 Further, the electronic device has any one of a function of generating video reproduction, audio reproduction, illumination dimming, or smell, and the control content determination unit includes a control processing unit including the viewing environment estimation unit. While the user is estimated to be in the wake-up state or when the user is assumed to change from the sleeping state to the wake-up state, the electronic device plays a predetermined video, plays a predetermined sound, and a predetermined illumination While the control processing unit including the viewing environment estimation means estimates that the user is sleeping or changes from the wake-up state to the sleeping state Then, when estimating, the electronic device stops the predetermined video or changes the content of the video, stops the predetermined audio or changes the content of the audio, stops the light output of the predetermined illumination, or sets the operation mode. Further, or changes the content of stopping or smell the occurrence of a predetermined odor.
 また、前記センサは、前記電子機器に備えられた撮像装置、もしくは前記電子機器外部の撮像装置であり、前記撮像装置によって取得した画像を解析することで、少なくとも1以上のユーザの存在を検出し、前記視聴環境推定手段を含む制御処理部は、前記撮像装置が取得した画像を解析することで、少なくとも1以上のユーザの存在を検出し、時間的に異なる複数枚の画像の変化を解析することで、前記ユーザが起床しているか否かを推定する。 The sensor is an imaging device provided in the electronic device or an imaging device outside the electronic device, and detects the presence of at least one user by analyzing an image acquired by the imaging device. The control processing unit including the viewing environment estimation unit analyzes the images acquired by the imaging device, thereby detecting the presence of at least one user and analyzing changes in a plurality of temporally different images. Thus, it is estimated whether or not the user is getting up.
 また、前記センサは前記電子機器に備えられた人感センサー装置、もしくは前記電子機器外部の人感センサー装置であり、前記視聴環境推定手段を含む制御処理部は、前記人感センサー装置が取得したセンサーデータを解析することで、少なくとも1以上のユーザの存在を検出し、時間的に異なる複数のセンサーデータの変化を解析することで、前記ユーザが起床しているか否かを推定する。 Further, the sensor is a human sensor device provided in the electronic device, or a human sensor device outside the electronic device, and the control processing unit including the viewing environment estimating means is acquired by the human sensor device. By analyzing the sensor data, the presence of at least one user is detected, and by analyzing changes in a plurality of temporally different sensor data, it is estimated whether or not the user is getting up.
 また、前記視聴環境推定手段を含む制御処理部はユーザの存在および利用環境を推定し、前記制御内容決定部は、ユーザの存在または利用環境に応じて前記電子機器の制御内容を変更する。 Also, the control processing unit including the viewing environment estimation unit estimates the presence and usage environment of the user, and the control content determination unit changes the control content of the electronic device according to the presence or usage environment of the user.
 また、前記電子機器は、映像を再生する出力部および音声を再生する上部および下部スピーカ部を有し、前記制御内容決定部は、前記視聴環境推定手段を含む制御処理部がユーザが存在している状態であって、かつ、機器が斜めに配置されている状態と推定している間、前記電子機器にて所定の映像を再生しながら、上部スピーカおよび下部スピーカの音声の出力を変化調整して再生する。 The electronic device includes an output unit that reproduces video and upper and lower speaker units that reproduce audio, and the control content determination unit includes a control processing unit including the viewing environment estimation unit. While the device is estimated to be in a state where the device is arranged at an angle, the audio output of the upper speaker and the lower speaker is changed and adjusted while the predetermined image is played on the electronic device. To play.
 なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific modes may be realized by a system, an apparatus, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. You may implement | achieve in arbitrary combinations of a circuit, a computer program, or a recording medium.
 以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that each of the embodiments described below shows a comprehensive or specific example. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.
 なお、以下各実施の形態において、特にことわりのない限り、次の言葉の意味を以下のように定義する。 In the following embodiments, the meanings of the following words are defined as follows unless otherwise specified.
 「ユーザ」とは、電子機器が置かれた環境において、電子機器を視聴する1以上の人をいう。なお、ユーザを単に人ともいう。 “User” refers to one or more people who view an electronic device in an environment where the electronic device is placed. A user is also simply called a person.
 「利用環境」とは、電子機器が空間内に置かれた状態を示す。利用環境は、例えば、床に直接置かれた状態、又は、壁にフックを用いて掛けられた状態などを示し、設置態様ともいう。また、利用環境は、外部の空間における照明の照度など外的要因で変化する状態をも含むものとする。なお、以下の説明にて「機器」および「電子機器」という言葉が記載されているが、同一の意味とする。 “Usage environment” indicates a state in which an electronic device is placed in a space. The usage environment indicates, for example, a state of being directly placed on the floor or a state of being hung on a wall using a hook, and is also referred to as an installation mode. In addition, the usage environment includes a state that changes due to external factors such as illumination intensity in an external space. In addition, although the terms “device” and “electronic device” are described in the following description, they have the same meaning.
 (提供するサービスの全体像)
 図1の(A)には、電子機器及び電子機器システムの全体像が示されている。
(Overview of services provided)
FIG. 1A shows an overall image of an electronic device and an electronic device system.
 グループ100は、例えば企業、団体、家庭等であり、その規模を問わない。グループ100には、複数の機器101に含まれる機器101a、機器101bおよびホームゲートウェイ102が存在する。リモコン103は、1つまたは複数の機器101をコントロールするリモートコントローラである。機器101またはリモコン103は、単独でインターネットと接続不可能な機器であっても、ホームゲートウェイ102を介してインターネットと接続可能となる場合がある。またグループ100には複数の機器101を使用するユーザ10が存在する。なお、ここでは複数の機器101に、機器101aと機器101bが含まれると述べたが、これに限られない。グループ100内には多数の機器が存在することが考えられ、複数の機器101に含まれる機器の数は特に限定しない。なお以下の実施の形態では、機器101aから機器101eまでを記載しているが、これらすべては図1に記載の複数の機器101に含まれるものとする。 The group 100 is, for example, a company, an organization, a home, etc., and may be of any size. In the group 100, there are a device 101a, a device 101b, and a home gateway 102 included in a plurality of devices 101. The remote controller 103 is a remote controller that controls one or more devices 101. Even if the device 101 or the remote controller 103 is a device that cannot be connected to the Internet by itself, it may be connectable to the Internet via the home gateway 102. The group 100 includes a user 10 who uses a plurality of devices 101. Here, it has been described that the plurality of devices 101 include the device 101a and the device 101b, but the present invention is not limited to this. There may be many devices in the group 100, and the number of devices included in the plurality of devices 101 is not particularly limited. In the following embodiment, the devices 101a to 101e are described, but all of them are assumed to be included in the plurality of devices 101 illustrated in FIG.
 データセンタ運営会社110には、クラウドサーバ111が存在する。クラウドサーバ111とはインターネットを介して様々な機器と連携する仮想化サーバである。クラウドサーバ111は、主に通常のデータベース管理ツール等で扱うことが困難な巨大なデータ(ビッグデータ)等を管理する。データセンタ運営会社110は、データ管理、クラウドサーバ111の管理、及び、それらを行うデータセンタの運営等を行っている。データセンタ運営会社110が行っている役務については詳細を後述する。ここで、データセンタ運営会社110は、データ管理又はクラウドサーバ111の運営等のみを行っている会社に限らない。例えば複数の機器101のうちの一つの機器を開発及び製造している機器メーカが、併せてデータ管理又はクラウドサーバ111の管理等を行っている場合は、機器メーカがデータセンタ運営会社110に該当する(図1の(B))。また、データセンタ運営会社110は一つの会社に限らない。例えば機器メーカ及び他の管理会社が共同もしくは分担してデータ管理又はクラウドサーバ111の運営を行っている場合は、両者もしくはいずれか一方がデータセンタ運営会社110に該当するものとする(図1の(C))。 The data center operating company 110 has a cloud server 111. The cloud server 111 is a virtualization server that cooperates with various devices via the Internet. The cloud server 111 mainly manages huge data (big data) that is difficult to handle with a normal database management tool or the like. The data center operating company 110 performs data management, management of the cloud server 111, and operation of the data center that performs them. Details of services performed by the data center operating company 110 will be described later. Here, the data center operating company 110 is not limited to a company that performs only data management or operation of the cloud server 111. For example, when a device manufacturer that develops and manufactures one of a plurality of devices 101 is also managing data or managing the cloud server 111, the device manufacturer corresponds to the data center operating company 110. (B in FIG. 1). The data center operating company 110 is not limited to one company. For example, when a device manufacturer and another management company jointly or share data management or operate the cloud server 111, both or one of them corresponds to the data center operating company 110 (FIG. 1). (C)).
 サービスプロバイダ120は、サーバ121を保有している。サーバ121には、機器101が再生する映像音響コンテンツのうち、映像とセットで管理されるタグを含む複数の映像コンテンツと、音とセットで管理されるタグを含む複数の音コンテンツが格納されているものとする。映像とセットで管理されるタグは、映像の内容を端的に示す自然言語で表現されたものが一般的であるが、自然言語表現に限らず、検索ワードの高速検索など、自然言語がハッシュタグ化されたバイナリデータ表現のものも含み、管理運用されることが想定される。また、音とセットで管理されるタグは、映像とセットで管理されるタグと同様のタグであって、音の内容に関するものが想定される。なお、ここで言うサーバ121とは、その規模は問わず、例えば、個人用PC内のメモリ等も含む。また、サービスプロバイダ120がサーバ121を保有していない場合もある。 The service provider 120 has a server 121. The server 121 stores a plurality of video contents including a tag managed as a set with a video and a plurality of sound contents including a tag managed as a set among the video and audio contents reproduced by the device 101. It shall be. Tags that are managed as a set with video are generally expressed in natural language that clearly shows the content of the video, but are not limited to natural language expression, and natural language hash tags such as high-speed search of search words It is assumed that it will be managed and operated, including those in the binary data representation. Further, the tag managed by the sound and the set is the same tag as the tag managed by the video and the set, and the tag related to the content of the sound is assumed. The server 121 referred to here is not limited in size, and includes, for example, a memory in a personal PC. In some cases, the service provider 120 does not have the server 121.
 なお、上記サービスにおいてホームゲートウェイ102は必須ではない。例えば、クラウドサーバ111が全てのデータ管理を行っている場合等は、ホームゲートウェイ102は不要となる。また、家庭内のあらゆる機器がインターネットに接続されている場合のように、それ自身ではインターネットと接続不可能な機器は存在しない場合もある。 Note that the home gateway 102 is not essential in the above service. For example, when the cloud server 111 manages all data, the home gateway 102 becomes unnecessary. In addition, there may be no device that cannot be connected to the Internet by itself, as in the case where every device in the home is connected to the Internet.
 次に、上記サービスにおける情報の流れを説明する。 Next, the flow of information in the above service will be described.
 まず、グループ100の機器101a又は機器101bは、各ログ情報をデータセンタ運営会社110のクラウドサーバ111に送信する。クラウドサーバ111は、機器101a又は機器101bのログ情報を集積する(図1の(a))。ここで、ログ情報とは複数の機器101の、例えば運転状況又は動作日時等を示す情報、機器に搭載するカメラ又はセンサーから取得する機器周辺の状態又は周辺環境に関する情報である。例えば、電子機器に搭載するカメラによる機器周辺の画像を、個人情報を削除した状態で分析した結果、より具体的には、どの映像音響コンテンツでユーザが画面側を注視して映像に見入っていたかのログ、電子機器に搭載する人感センサーにより機器周辺にユーザが存在していたかの履歴、又は、機器の映像音響コンテンツの再生履歴又は機器に搭載した照度センサによる機器周辺の照明環境の周期性を示すログ情報などであるが、これらのものに限らず、電子機器本体あるいは周辺空間設備に配置されるあらゆる機器から取得が可能なすべての情報をいう。ログ情報は、インターネットを介して複数の機器101自体から直接クラウドサーバ111に提供される場合もある。また、複数の機器101から一旦ホームゲートウェイ102にログ情報が集積され、ホームゲートウェイ102からクラウドサーバ111に提供されてもよい。 First, the device 101a or the device 101b of the group 100 transmits each log information to the cloud server 111 of the data center operating company 110. The cloud server 111 accumulates log information of the device 101a or the device 101b ((a) in FIG. 1). Here, the log information is information on the plurality of devices 101, for example, information indicating the driving status or operation date and time, information on the peripheral state of the device or the surrounding environment acquired from a camera or sensor mounted on the device. For example, as a result of analyzing an image around a device by a camera mounted on an electronic device in a state in which personal information is deleted, more specifically, which audiovisual content the user has watched on the screen side and watched in the video Log, history of whether the user was around the device by the presence sensor installed in the electronic device, or the playback history of the audiovisual content of the device or the periodicity of the lighting environment around the device by the illuminance sensor mounted on the device Although it is log information etc., it refers to all information that can be acquired from any device arranged in the electronic device main body or the peripheral space facility. The log information may be provided directly to the cloud server 111 from a plurality of devices 101 themselves via the Internet. In addition, log information may be temporarily accumulated in the home gateway 102 from a plurality of devices 101 and provided to the cloud server 111 from the home gateway 102.
 次に、データセンタ運営会社110のクラウドサーバ111は、集積したログ情報を一定の単位でサービスプロバイダ120に提供する。ここで、一定の範囲とは、データセンタ運営会社110が集積した情報を整理してサービスプロバイダ120に提供することのできる単位でもよいし、サービスプロバイダ120が要求した単位でもよい。一定の単位と記載したが、時間的に一定でなくてもよく、状況に応じて提供する情報量が変化する場合もある。ログ情報は、必要に応じてサービスプロバイダ120が保有するサーバ121に保存される(図1の(b))。そして、サービスプロバイダ120は、ログ情報をユーザに提供するサービスに適合する情報に整理し、ユーザに提供する。提供するユーザは、複数の機器101を使用するユーザ10でもよいし、映像音響コンテンツを制作するクリエータ20でもよい。なお、ユーザへのサービス提供方法は、例えば、サービスプロバイダ120から直接ユーザへ提供されてもよい(図1の(f)及び(e))。また、ユーザへのサービス提供方法は、例えば、データセンタ運営会社110のクラウドサーバ111を再度経由して、ユーザに提供されてもよい(図1の(c)及び(d))。また、データセンタ運営会社110のクラウドサーバ111がログ情報をユーザに提供するサービスに適合する情報に整理し、サービスプロバイダ120に提供してもよい。 Next, the cloud server 111 of the data center operating company 110 provides the collected log information to the service provider 120 in a certain unit. Here, the certain range may be a unit in which information collected by the data center operating company 110 can be organized and provided to the service provider 120, or a unit requested by the service provider 120. Although described as a fixed unit, it may not be constant in time, and the amount of information to be provided may change depending on the situation. The log information is stored in the server 121 held by the service provider 120 as necessary ((b) of FIG. 1). Then, the service provider 120 organizes the log information into information suitable for the service provided to the user, and provides the information to the user. The providing user may be a user 10 who uses a plurality of devices 101, or a creator 20 that produces audiovisual content. In addition, the service provision method to a user may be directly provided to a user from the service provider 120 ((f) and (e) of FIG. 1), for example. The service providing method to the user may be provided to the user via the cloud server 111 of the data center operating company 110 again ((c) and (d) in FIG. 1), for example. Alternatively, the cloud server 111 of the data center operating company 110 may organize the log information into information suitable for the service provided to the user and provide the information to the service provider 120.
 なお、ユーザ10とクリエータ20とは、別の人でも同一の人でもよい。ここで、クリエータ20は、サービスプロバイダ120のサーバ121上で提供可能なクリエータコミュニティサービスを利用可能であり、クリエータ20は、自身が制作した映像音響コンテンツについて映像と音響とを同期または非同期に登録管理することができ、機器101への配信可否を設定することができる。ここでは説明の簡単化のためクリエータ20が配信可否を設定できると説明したが、実施の別の形態としては、クリエータ20を管理する管理者がクリエータコミュニティサービスに存在し、当該管理者が配信の可否を設定することも考えうるものとする。また、クリエータコミュニティサービスは、機器101から得られたログ情報を利用し、クリエータ20に登録した映像音響コンテンツと連動するログ情報の分析結果を提供し、登録済みの映像音響コンテンツの改善または新規に登録する映像音響コンテンツの制作の参考情報としてリアルタイムにフィードバックを得て活用することができる。上記ログ情報の分析結果は、再生した映像音響コンテンツのユーザによる評価結果、再生された時間帯又は再生時間、他の映像音響コンテンツにスイッチングしたポイントを示す再生ログ、機器101が配置された場所設備情報、再生された際の音響音量、再生設定に用いられた照度、人の視線又は表情を分析することによる注視の度合いを示す目配せログなどが含まれる。 Note that the user 10 and the creator 20 may be different people or the same person. Here, the creator 20 can use a creator community service that can be provided on the server 121 of the service provider 120, and the creator 20 registers and manages video and audio synchronously or asynchronously with respect to the video and audio content produced by the creator 20 itself. And whether to distribute to the device 101 can be set. Here, it has been described that the creator 20 can set whether or not distribution is possible for the sake of simplification. However, as another form of implementation, there is an administrator who manages the creator 20 in the creator community service, and the administrator It can also be considered to set the availability. In addition, the creator community service uses log information obtained from the device 101, provides an analysis result of log information linked to the audiovisual content registered in the creator 20, and improves or newly adds the registered audiovisual content. Feedback can be obtained and used in real time as reference information for the production of audiovisual content to be registered. The analysis result of the log information includes the evaluation result by the user of the reproduced audiovisual content, the reproduction time zone or reproduction time, the reproduction log indicating the point switched to another audiovisual content, and the location facility where the device 101 is arranged. Information, sound volume at the time of reproduction, illuminance used for reproduction setting, a gaze log indicating the degree of gaze by analyzing a person's line of sight or facial expression, and the like are included.
 (実施の形態1)
 本実施の形態において、電子機器の周囲の環境に応じたコンテンツの提示の制御を行う電子機器について説明する。
(Embodiment 1)
In this embodiment, an electronic device that controls the presentation of content according to the environment around the electronic device will be described.
 本実施の形態に係る電子機器は、電子機器の周囲の環境に関する情報、又は、電子機器の設置態様に関する情報を含む、電子機器の環境情報を取得する取得部と、電子機器の環境情報と、電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した環境情報に対応付けられた、電子機器によるコンテンツの提示に関する制御を行う制御処理部とを備える。 The electronic device according to the present embodiment includes an acquisition unit that acquires environmental information about the electronic device, including information about the environment around the electronic device, or information about an installation mode of the electronic device, environmental information about the electronic device, A control processing unit that performs control related to the presentation of content by the electronic device, which is associated with the acquired environment information, by referring to a predetermined association with the content of the control related to the presentation of content by the electronic device.
 また、上記電子機器が備える機能を、互いに通信可能に接続された複数の装置により分担することで制御システムとしても構成され得る。つまり、本実施の形態に係る制御システムは、電子機器の制御システムであって、電子機器の周囲の環境に関する情報、又は、電子機器の設置態様に関する情報を含む、電子機器の環境情報を取得する取得部と、電子機器の環境情報と、電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した環境情報に対応付けられた、電子機器によるコンテンツの提示に関する制御を行う制御処理部とを備える。 In addition, the function of the electronic device can be shared by a plurality of devices connected to be communicable with each other, so that it can be configured as a control system. That is, the control system according to the present embodiment is a control system for an electronic device, and acquires environmental information about the electronic device including information about the environment around the electronic device or information about the installation mode of the electronic device. By referring to a predetermined association between the acquisition unit, the environment information of the electronic device, and the details of the control related to the presentation of the content by the electronic device, the presentation of the content by the electronic device associated with the acquired environment information A control processing unit that performs control.
 また、本実施の形態に係る電子機器の制御方法は、電子機器の周囲の環境に関する情報、又は、電子機器の設置態様に関する情報を含む、電子機器の環境情報を取得し、電子機器の環境情報と、電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した環境情報に対応付けられた、電子機器によるコンテンツの提示に関する制御を行う。 In addition, the electronic device control method according to the present embodiment obtains electronic device environmental information including information related to the environment around the electronic device or information related to the installation mode of the electronic device, and the electronic device environmental information. By referring to a predetermined association with the details of the control regarding the presentation of content by the electronic device, the control regarding the presentation of the content by the electronic device associated with the acquired environment information is performed.
 以下に電子機器の構成、及び、電子機器の制御方法について具体的に説明する。なお、電子機器を単に機器ともいう。 Hereinafter, the configuration of the electronic device and the control method of the electronic device will be described in detail. Note that an electronic device is also simply referred to as a device.
 [機器の構成]
 図2は、本実施の形態に係る機器101の外観を示す模式図である。図3は、本実施の形態に係る機器101の構成を示すブロック図である。図4は、本実施の形態に係る制御処理部の詳細なブロック図である。図5は、本実施の形態に係るコンテンツ管理部の詳細なブロック図である。図6及び図7は、本実施の形態に係る機器101の設置態様の例を示す模式図である。
[Device configuration]
FIG. 2 is a schematic diagram showing an appearance of the device 101 according to the present embodiment. FIG. 3 is a block diagram showing a configuration of the device 101 according to the present embodiment. FIG. 4 is a detailed block diagram of the control processing unit according to the present embodiment. FIG. 5 is a detailed block diagram of the content management unit according to the present embodiment. 6 and 7 are schematic diagrams illustrating an example of an installation mode of the device 101 according to the present embodiment.
 なお、本実施の形態では、図1における機器101として、スピーカ及びディスプレイを搭載した装置の例を記載して説明するがこれに限られるものではない。 In the present embodiment, an example of a device equipped with a speaker and a display will be described and described as the device 101 in FIG. 1, but the present invention is not limited to this.
 図2の(a)は、機器101の正面図である。図2の(b)は、機器101の側面図である。図2の(c)は、機器の背面図である。また、機器101の設置態様の一例として、機器101を壁に立て掛けて設置する設置態様が図6に示されている。また、機器101の設置態様の別の一例として、機器101を壁に吊り下げて設置する設置態様が図7に示されている。 2A is a front view of the device 101. FIG. FIG. 2B is a side view of the device 101. FIG. 2C is a rear view of the device. As an example of the installation mode of the device 101, FIG. 6 shows an installation mode in which the device 101 is installed against a wall. As another example of the installation mode of the device 101, FIG. 7 shows an installation mode in which the device 101 is suspended from a wall.
 図2の(a)、及び、図3に示されるように、機器101は、センサ201と、出力部202と、制御処理部203と、コンテンツ管理部204と、上部スピーカ205と、下部スピーカ206と、情報送受信部207とを備える。なお、機器101について、図2に示されるように上下方向、左右方向、及び、前後方向を定義する。 2A and 3, the device 101 includes a sensor 201, an output unit 202, a control processing unit 203, a content management unit 204, an upper speaker 205, and a lower speaker 206. And an information transmission / reception unit 207. For the device 101, as shown in FIG. 2, a vertical direction, a horizontal direction, and a front-rear direction are defined.
 センサ201は、機器101の周囲の環境に関する情報、又は、機器101の設置態様に関する情報を含む、機器101の環境情報を取得する取得部の一例である。より具体的には、センサ201は、機器101の周囲の環境を感知して、環境を示す環境値を出力するセンサである。なお、センサ201は、カメラ、ボタン、又は、機器101の姿勢を検知するためのセンサを含む。 The sensor 201 is an example of an acquisition unit that acquires environment information of the device 101 including information related to the environment around the device 101 or information related to the installation mode of the device 101. More specifically, the sensor 201 is a sensor that senses the environment around the device 101 and outputs an environmental value indicating the environment. The sensor 201 includes a camera, a button, or a sensor for detecting the posture of the device 101.
 図2の(a)に示されるように、センサ201の一例としてのセンサ201Fは、機器101の一部に配置される。センサ201Fが配置される位置は、例えば、機器101における上部であるがこれに限られない。 2A, a sensor 201F as an example of the sensor 201 is disposed in a part of the device 101. The position where the sensor 201F is disposed is, for example, the upper part of the device 101, but is not limited thereto.
 センサ201Fは、例えば、環境値としての二次元画像を検出するカメラなどである。センサ201Fが検出する二次元画像は、二次元の可視画像または二次元の赤外画像(熱画像ともいう)などである。センサ201Fは、機器101から見て正面方向の二次元画像を検出し、後述する制御処理部203に出力する。センサ201Fは、機器101の周囲の環境を感知して環境を示す環境値を出力するセンサである。センサ201Fは、機器101の周囲の環境に関する情報として、機器101の周囲の人の有無、機器101の周囲の人の向き、機器101から見た周囲の人の方向、機器101の周囲の明るさ、又は、機器101の周囲の音量を示す情報を含む環境情報を取得する。なお、環境情報は、機器101の周囲の人の有無、機器101の周囲の人の向き、機器101から見た周囲の人の方向、機器101の周囲の明るさ、及び、機器101の周囲の音量、の少なくとも2つを示す情報を含んでもよい。この場合、機器101によるコンテンツの提示に関する制御は、上記少なくとも2つを示す情報に複合的に応じてなされる。 The sensor 201F is, for example, a camera that detects a two-dimensional image as an environmental value. The two-dimensional image detected by the sensor 201F is a two-dimensional visible image or a two-dimensional infrared image (also referred to as a thermal image). The sensor 201F detects a two-dimensional image in the front direction when viewed from the device 101, and outputs the two-dimensional image to the control processing unit 203 described later. The sensor 201F is a sensor that senses the environment around the device 101 and outputs an environmental value indicating the environment. The sensor 201F includes, as information about the environment around the device 101, the presence / absence of people around the device 101, the orientation of people around the device 101, the direction of people around the device 101, and the brightness around the device 101. Alternatively, environmental information including information indicating the volume around the device 101 is acquired. The environmental information includes the presence / absence of people around the device 101, the direction of people around the device 101, the direction of people around the device 101, the brightness around the device 101, and the surroundings of the device 101 Information indicating at least two of the volume may be included. In this case, control relating to presentation of content by the device 101 is performed in a composite manner in accordance with information indicating the at least two.
 なお、センサ201Fは、必ずしも二次元画像を検出するものでなくてもよい。センサ201Fは、人又は物体の存在有無のみを検出する人感センサであってもよいし、照度を検出するセンサ、滞留するにおい成分を検出するセンサなど、空間の状態を検出するセンサを想定したものでもよい。例えば、センサ201Fが、においセンサであれば、空間に置かれた果物(りんご、かき、オレンジ又はバナナなど)、植物(薔薇、ゆり、胡蝶蘭など)、人が使う香水若しくは体臭、又は、空間で使われている芳香剤などを検出できる。この場合、機器101は、空間に対する人間の心地よさ又は違和感などをにおいによって把握することができ、検出したにおいに関連する映像音響コンテンツを再生するよう制御することで、果物又は植物に関連した映像又は音響でリラックス効果を高め、また、使う香水に近しい価値観の映像音響コンテンツを選定することで空間価値の向上を演出することができる。 Note that the sensor 201F does not necessarily have to detect a two-dimensional image. The sensor 201F may be a human sensor that detects only the presence or absence of a person or an object, or a sensor that detects a state of a space, such as a sensor that detects illuminance or a sensor that detects a stagnant odor component. It may be a thing. For example, if the sensor 201F is an odor sensor, fruits (apples, oysters, oranges, bananas, etc.), plants (roses, lilies, phalaenopsis etc.), perfumes or body odors used by humans, or spaces Can detect fragrances used in In this case, the device 101 can grasp human comfort or discomfort with respect to the space by smell, and controls the video / audio content related to the detected smell to reproduce the image related to the fruit or plant. Alternatively, it is possible to enhance the spatial value by enhancing the relaxation effect with sound and selecting audiovisual content with values close to the perfume used.
 また、センサ201Fは、機器101の周囲の音を収音するマイクであってもよい。 Further, the sensor 201F may be a microphone that picks up sounds around the device 101.
 なお、機器101は、センサ201に代えて、又は、センサ201とともに、インターネット上のWebサイトなどから情報を取得する情報取得部(不図示)を備えていてもよい。そして、機器101は、インターネット上のWebサイトから情報取得部によって、天気に関する情報等を取得してもよい。取得した情報は、上記の環境値に代えて、又は、環境値と共に、コンテンツの提示に関する制御に用いられ得る。 Note that the device 101 may include an information acquisition unit (not shown) that acquires information from a website on the Internet or the like instead of the sensor 201 or together with the sensor 201. And the apparatus 101 may acquire the information regarding a weather by the information acquisition part from the website on the internet. The acquired information can be used for control related to the presentation of content instead of the environmental value or together with the environmental value.
 出力部202は、図2の(a)に示すとおり、例えば機器101の正面に配置される液晶パネルなどであり、後述する制御処理部203から出力された情報である画像又は動画像をユーザ10に対して出力つまり表示する。 The output unit 202 is, for example, a liquid crystal panel disposed in front of the device 101 as illustrated in FIG. 2A, and an image or moving image that is information output from the control processing unit 203 described later is displayed on the user 10. Output or display for.
 制御処理部203は、機器101の環境情報と、機器101によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した環境情報に対応付けられた、機器101によるコンテンツの提示に関する制御を行う処理部である。例えば、機器101の内部に備えられるCPU(Central Processing Unit)又はマイコンなどである。 The control processing unit 203 refers to a predetermined association between the environment information of the device 101 and the details of the control related to the presentation of the content by the device 101, so that the content of the content by the device 101 associated with the acquired environment information is referred to. It is a process part which performs control regarding presentation. For example, a CPU (Central Processing Unit) or a microcomputer provided in the device 101 is used.
 制御処理部203は、センサ201F、出力部202もしくはコンテンツ管理部204から情報を取得して、取得した情報を基に判断等の処理を行う。また、制御処理部203は、センサ201F、出力部202、もしくはコンテンツ管理部204に情報を出力し、各構成を制御する。図4には制御処理部203の詳細な機能構成の一部を示す。図4に示されるように、制御処理部203は、視聴環境推定部203Aと、制御内容決定部203Bとを含む。各機能構成の処理については後述する。なお、制御処理部203の一部の機能、例えば視聴環境推定部203Aの一部または全部の処理を実行する機能が、センサ201Fの一例であるカメラ又はセンサに含まれていてもよい。 The control processing unit 203 acquires information from the sensor 201F, the output unit 202, or the content management unit 204, and performs processing such as determination based on the acquired information. The control processing unit 203 outputs information to the sensor 201F, the output unit 202, or the content management unit 204, and controls each configuration. FIG. 4 shows a part of the detailed functional configuration of the control processing unit 203. As shown in FIG. 4, the control processing unit 203 includes a viewing environment estimation unit 203A and a control content determination unit 203B. Processing of each functional configuration will be described later. Note that a part of the function of the control processing unit 203, for example, a function of executing part or all of the processing of the viewing environment estimation unit 203A may be included in a camera or a sensor which is an example of the sensor 201F.
 コンテンツ管理部204は、各構成から出力された情報、及び、外部から取得した情報等を一時的に記録もしくは蓄積する。コンテンツ管理部204は、例えば、機器101の内部に備えられるメモリなどである。 The content management unit 204 temporarily records or accumulates information output from each configuration, information acquired from the outside, and the like. The content management unit 204 is, for example, a memory provided in the device 101.
 図5にはコンテンツ管理部204の詳細な機能構成の一部を示す。図5に示されるように、コンテンツ管理部204は、視聴環境蓄積DB(データベース)204Aと、コンテンツ管理DB(データベース)204Bとを含む。各機能構成の特徴については後述する。なお、コンテンツ管理部204は、必須の構成ではない。例えば、機器101以外の外部装置が、コンテンツ管理部204の視聴環境蓄積DB204A及びコンテンツ管理DB208の一方又は両方を備えており、機器101と当該外部装置が情報を有線通信もしくは無線通信でやり取りすることで代用してもよい。 FIG. 5 shows a part of the detailed functional configuration of the content management unit 204. As shown in FIG. 5, the content management unit 204 includes a viewing environment storage DB (database) 204A and a content management DB (database) 204B. Features of each functional configuration will be described later. Note that the content management unit 204 is not an essential component. For example, an external device other than the device 101 includes one or both of the viewing environment storage DB 204A and the content management DB 208 of the content management unit 204, and the device 101 and the external device exchange information by wired communication or wireless communication. May be substituted.
 上部スピーカ205は、機器101の本体上部に配置されるスピーカである。 The upper speaker 205 is a speaker arranged at the upper part of the main body of the device 101.
 下部スピーカ206は、機器101の本体下部に配置されるスピーカである。 The lower speaker 206 is a speaker disposed at the lower part of the main body of the device 101.
 センサ201には、本体の背面の上下それぞれの端部には、床への設置などを感圧式で検出するセンサ201BH及び201BLが配置されていてもよい。センサ201BH及び201BLは、機器101の姿勢を検知するセンサとして機能する。センサ201BH及び201BLは、物体により押圧又は接触される場合にON信号を出力し、そうでない場合にOFF信号を出力する。ON信号又はOFF信号は環境値に相当する。 The sensor 201 may be provided with sensors 201BH and 201BL that detect the installation on the floor in a pressure sensitive manner at the upper and lower ends of the back surface of the main body. The sensors 201BH and 201BL function as sensors that detect the posture of the device 101. The sensors 201BH and 201BL output an ON signal when pressed or touched by an object, and output an OFF signal otherwise. The ON signal or OFF signal corresponds to the environmental value.
 図6に示されるように、壁に対して機器101の本体を立て掛ける場合において、機器101が床に置かれた際にセンサ201BLが床と接することで、置かれたことを検知することができる。なお、ここでは感圧式センサで検知する例を示したが、センサの検知方式はこれに限らず、静電容量式又は照度照合方式のような他の手段を用いてもかまわない。 As shown in FIG. 6, when the main body of the device 101 is leaned against the wall, when the device 101 is placed on the floor, the sensor 201BL can be detected by contacting the floor. . In addition, although the example which detects with a pressure-sensitive sensor was shown here, the detection system of a sensor is not restricted to this, You may use another means like an electrostatic capacitance type or an illumination intensity collation system.
 なお、センサ201BH及び201BLの代わりに3軸センサを用いて機器101の姿勢を検知することもできる。3軸センサは、予め定められた互いに直交する3軸それぞれに対する角度を検出する。この検出角度を用いて任意の軸又は面に対する角度を算出することもできる。例えば、上記3軸それぞれに対する角度を用いて、機器101の水平面からの立上がり角θを算出することができる。この立上がり角θを用いて機器101の姿勢が表現され得る。立上がり角θは、環境値の一例である。 Note that the orientation of the device 101 can be detected using a three-axis sensor instead of the sensors 201BH and 201BL. The triaxial sensor detects angles with respect to predetermined three axes orthogonal to each other. Using this detected angle, an angle with respect to an arbitrary axis or surface can also be calculated. For example, the rising angle θ from the horizontal plane of the device 101 can be calculated using the angles with respect to the three axes. The posture of the device 101 can be expressed using the rising angle θ. The rising angle θ is an example of an environmental value.
 また、図2の(c)に示されるように、機器101がフック掛け穴H1を有しており、壁に固定されたフックF1がフック掛け穴H1に挿入されることで、機器101を壁に掛けて吊り下げるようにして設置することもできる(図7参照)。この場合、センサ201BHおよびセンサ201BLにより壁又は床が検出されないことから、機器101が壁に吊り下げられていると判定することができる。 Further, as shown in FIG. 2C, the device 101 has a hook hanging hole H1, and the hook F1 fixed to the wall is inserted into the hook hanging hole H1, so that the device 101 is placed on the wall. It can also be installed so as to be hung on and suspended (see FIG. 7). In this case, since the wall or floor is not detected by the sensor 201BH and the sensor 201BL, it can be determined that the device 101 is suspended from the wall.
 なお、図6に示されるように機器101が壁に立て掛けられて設置される場合、上部スピーカ205が出力する音声C205より、下部スピーカ206が出力する音声C206の音量を大きくしてもよい。このように音量を調整することで、適切な視聴環境をユーザ10に提供するためである。 Note that, as shown in FIG. 6, when the device 101 is installed leaning against a wall, the volume of the sound C206 output by the lower speaker 206 may be larger than the sound C205 output by the upper speaker 205. This is to provide the user 10 with an appropriate viewing environment by adjusting the volume in this way.
 なお、機器101は、さらに、コンテンツの再生に関するログ情報を出力するログ出力部(不図示)を備えてもよい。ログ出力部が出力するログ情報は、クリエータ20にフィードバックされるログ情報として活用され得る。 The device 101 may further include a log output unit (not shown) that outputs log information related to content reproduction. The log information output by the log output unit can be used as log information fed back to the creator 20.
 図8は、本実施の形態に係る機器101の外観を示す斜視図である。図9は、本実施の形態に係る機器101の分解斜視図である。図8及び図9に示される構成について以下で詳細に説明する。 FIG. 8 is a perspective view showing an appearance of the device 101 according to the present embodiment. FIG. 9 is an exploded perspective view of the device 101 according to the present embodiment. The configuration shown in FIGS. 8 and 9 will be described in detail below.
 機器101は、外装フレームP101と、構造フレームP102と、バックカバーP103と、装飾部材P104と、スピーカネットP111と、スピーカベース板P112と、スピーカP113と、カバーガラスP121と、表示パネルP122とを備える。 The device 101 includes an exterior frame P101, a structural frame P102, a back cover P103, a decorative member P104, a speaker net P111, a speaker base plate P112, a speaker P113, a cover glass P121, and a display panel P122. .
 外装フレームP101は、アルミニウムなどの金属材料により形成される外装フレームである。外装フレームP101は、着脱可能な構造としてもよく、この場合、表示パネルP122等とは独立に、機器101の外観を変更できる利点がある。なお、外装フレームP101に、LCD(Liquid Crystal Display)又はOLED(Organic Light Emitting Diode)を配備してもよい。 The exterior frame P101 is an exterior frame formed of a metal material such as aluminum. The exterior frame P101 may have a detachable structure. In this case, there is an advantage that the appearance of the device 101 can be changed independently of the display panel P122 and the like. Note that an LCD (Liquid Crystal Display) or an OLED (Organic Light Emitting Diode) may be provided in the exterior frame P101.
 構造フレームP102は、アルミニウムなどの金属材料により形成される構造フレームである。構造フレームP102は、機器101の機械的構造を維持するための骨組みである。 The structural frame P102 is a structural frame formed of a metal material such as aluminum. The structural frame P102 is a framework for maintaining the mechanical structure of the device 101.
 バックカバーP103は、機器101の構成要素を背面側から覆う、エンクロージャとしてのカバーである。 The back cover P103 is a cover as an enclosure that covers the components of the device 101 from the back side.
 装飾部材P104は、バックカバーP103の装飾用の部材である。装飾部材P104は、布製(ファブリック)、金属製、木製などの任意の部材であり、機器101の外観を演出する部材である。装飾部材P104は、例えば、放熱孔などの機能的な形状を外面から隠すことで美しい外観を確保するために用いられ得る。装飾部材P104は、取り外し可能とし、ユーザ10の好みに応じてカスタマイズされ得るように構成されてもよい。 The decoration member P104 is a member for decoration of the back cover P103. The decorative member P <b> 104 is an arbitrary member such as cloth (fabric), metal, or wood, and is a member that produces the appearance of the device 101. The decorative member P104 can be used, for example, to ensure a beautiful appearance by hiding a functional shape such as a heat radiation hole from the outer surface. The decorative member P104 may be configured to be removable and customized according to the user's 10 preference.
 スピーカネットP111は、スピーカP113を前面側から覆うカバー部材である。スピーカネットP111は、例えば、金属又は樹脂に微細孔を設けたものであり、外面からスピーカP113が視認されにくくする。また、スピーカネットP111は、裏面に紗をはることで内部構造がさらに視認されにくくすることもできる。スピーカネットP111は、音透過性のある材料を使用することが好ましく、Fabricを用いるなどカスタマイズされてもよい。 The speaker net P111 is a cover member that covers the speaker P113 from the front side. The speaker net P111 is, for example, provided with fine holes in metal or resin, and makes it difficult for the speaker P113 to be visually recognized from the outer surface. In addition, the speaker net P111 can be made harder to visually recognize the internal structure by putting a ridge on the back surface. The speaker net P111 is preferably made of a sound-transmitting material, and may be customized such as using Fabric.
 スピーカベース板P112は、スピーカP113及びスピーカネットP111を保持する板体である。 The speaker base plate P112 is a plate body that holds the speaker P113 and the speaker net P111.
 スピーカP113は、機器101を前面側から見て上部の左右の2箇所に上部スピーカ205として搭載され、また、下部の左右の2箇所に下部スピーカ206として搭載される。スピーカP113は、10Hz程度の低音域から100kHz程度の高音域までの音を出力する。 Speaker P113 is mounted as upper speaker 205 at two locations on the upper left and right when device 101 is viewed from the front side, and as lower speaker 206 at two locations on the left and right of the lower portion. The speaker P113 outputs sound from a low frequency range of about 10 Hz to a high frequency range of about 100 kHz.
 カバーガラスP121は、表示パネルP122を前面側から覆うカバー部材である。カバーガラスP121は、表示パネルP122に対してダイレクトボンディング加工をして、空気層なく接着することで、表面の均一な外観と表示性能を両立する。なお、カバーガラスP121のガラス形状を工夫することで、カバーガラスP121の端いっぱいまで画像を表示するブラックマトリクスレスに対応し得る。 The cover glass P121 is a cover member that covers the display panel P122 from the front side. The cover glass P121 is directly bonded to the display panel P122 and bonded without an air layer, thereby achieving both a uniform appearance on the surface and display performance. In addition, by devising the glass shape of the cover glass P121, it is possible to cope with black matrixless display of an image up to the end of the cover glass P121.
 表示パネルP122は、画像を表示する表示パネルである。表示パネルP122は、例えば、LCD又はOLEDである。表示パネルP122は、出力部202に相当する。 The display panel P122 is a display panel that displays an image. The display panel P122 is, for example, an LCD or an OLED. The display panel P122 corresponds to the output unit 202.
 以上、図2~図9を用いて各構成について説明したが、機器101がこれらの構成全てを備えている必要はない。すなわち、外部の機器がこれらの構成のうち一部を備えており、機器101と情報をやり取りすることで代用してもよい。また機器101は上記した各構成以外の構成を備えていてもよい。 As mentioned above, although each structure was demonstrated using FIGS. 2-9, the apparatus 101 does not need to be equipped with all these structures. That is, an external device may include a part of these configurations, and may be substituted by exchanging information with the device 101. The device 101 may have a configuration other than the above-described configurations.
 [機器の動作・処理の流れ]
 図10は、本実施の形態に係る機器101の処理を示すフロー図である。
[Device operation and processing flow]
FIG. 10 is a flowchart showing processing of the device 101 according to the present embodiment.
 ステップS401にて、センサ201は、機器101の前方向の可視画像又は熱画像等の二次元画像を検出し、検出した二次元画像を制御処理部203に出力する。ここで、二次元画像の検出のタイミング又は頻度は、特に限定されない。例えば5分又は10分などの所定の間隔ごとに検出してもよいし、制御処理部203がユーザ10の存在が検出されたときに検出頻度を上げるように制御してもよい。なお、センサ201が取得する情報は必ずしも二次元画像に関する情報ではなくてもよい。例えばセンサ201が取得した空間内のセンシング情報であってもよい。 In step S 401, the sensor 201 detects a two-dimensional image such as a forward visible image or a thermal image of the device 101, and outputs the detected two-dimensional image to the control processing unit 203. Here, the detection timing or frequency of the two-dimensional image is not particularly limited. For example, it may be detected at predetermined intervals such as 5 minutes or 10 minutes, or the control processing unit 203 may be controlled to increase the detection frequency when the presence of the user 10 is detected. Note that the information acquired by the sensor 201 is not necessarily information related to the two-dimensional image. For example, the sensing information in the space which the sensor 201 acquired may be sufficient.
 ステップS402にて、制御処理部203は、ユーザ10から操作を受け付けたか否かを判定する。ユーザ10からの操作を受け付けた場合(ステップS402でYes)には、ステップS421に進み、そうでない場合(ステップS402でNo)には、ステップS403に進む。 In step S402, the control processing unit 203 determines whether an operation has been received from the user 10. If an operation from the user 10 is accepted (Yes in step S402), the process proceeds to step S421. If not (No in step S402), the process proceeds to step S403.
 ステップS403にて、制御処理部203は、オートモードに遷移するか否かを決定する。ここで、オートモードとは、センサ201による検知結果に基づいて視聴環境を推定し、制御内容を決定するモード(後述のステップS411~S413の動作をするモード)をいう。オートモードに遷移するか否かは、例えばステップS402で受け付けた操作が、オートモードに遷移するための操作として予め定められた操作であるか否かに基づいて判定され得るが、これに限定されない。オートモードに遷移すると決定した場合(ステップS403でYes)には、ステップS411に進み、そうでない場合(ステップS403でNo)には、ステップS404に進む。 In step S403, the control processing unit 203 determines whether or not to transition to the auto mode. Here, the auto mode is a mode in which the viewing environment is estimated based on the detection result of the sensor 201 and the control content is determined (a mode in which operations in steps S411 to S413 described later are performed). Whether or not to transition to the auto mode can be determined based on whether or not the operation received in step S402 is a predetermined operation for transitioning to the auto mode, for example, but is not limited thereto. . If it is determined to transition to the auto mode (Yes in step S403), the process proceeds to step S411. If not (No in step S403), the process proceeds to step S404.
 ステップS404にて、制御処理部203は、通常モードでのコンテンツの再生を行う。ここで、通常モードとは、オートモードとは異なるモードであって、予め定められた1以上のコンテンツの再生を行うモードである。なお、通常モードでの再生は、1以上のコンテンツが、予め定められた順序で再生されてもよいし、ランダムに再生されてもよいし、その他、任意の態様で再生されてよい。 In step S404, the control processing unit 203 reproduces the content in the normal mode. Here, the normal mode is a mode different from the auto mode, and is a mode in which one or more predetermined contents are reproduced. In the normal mode, one or more contents may be reproduced in a predetermined order, may be reproduced randomly, or may be reproduced in any other manner.
 ステップS405にて、制御処理部203は、機器101の電源をOFFする指示を受信したか否かを判定する。上記指示を受信した場合(ステップS405でYes)には、図10に示される一連の処理を終了する。上記指示を受信していない場合(ステップS405でNo)には、ステップS402を再び実行する。 In step S405, the control processing unit 203 determines whether an instruction to turn off the power of the device 101 has been received. If the above instruction has been received (Yes in step S405), the series of processes shown in FIG. If the above instruction has not been received (No in step S405), step S402 is executed again.
 ステップS411にて、制御処理部203の視聴環境推定部203Aは、センサ201を動作させる。 In step S411, the viewing environment estimation unit 203A of the control processing unit 203 operates the sensor 201.
 ステップS412にて、制御処理部203の視聴環境推定部203Aは、センサ201から出力された情報である二次元画像又はセンシング情報などを基に、空間にユーザ10がいるかどうか、又は、空間の照度が規定値以下かどうか、などの観点で空間の状態を推定する。視聴環境推定部203Aが推定する情報は、例えば、機器101の周囲の環境に関する情報であり、機器101の周囲の人の有無、機器101の周囲の人の向き、又は、機器101の周囲の明るさを示す情報である。ステップS412の詳細な処理は、後で説明する。 In step S <b> 412, the viewing environment estimation unit 203 </ b> A of the control processing unit 203 determines whether there is the user 10 in the space based on the two-dimensional image or sensing information that is output from the sensor 201, or the illuminance of the space Estimate the state of the space from the viewpoint of whether or not is below the specified value. The information estimated by the viewing environment estimation unit 203A is, for example, information related to the environment around the device 101, and the presence or absence of a person around the device 101, the orientation of the person around the device 101, or the brightness around the device 101. This is information indicating the above. Detailed processing in step S412 will be described later.
 ステップS413にて、制御処理部203の制御内容決定部203Bは、ステップS402にて視聴環境推定部203Aが推定したユーザ10の有無、ユーザ10の人数、又は、ユーザ10の状態に応じて、機器101の制御内容を決定する。ステップS413の詳細な処理は、後で説明する。 In step S413, the control content determination unit 203B of the control processing unit 203 determines whether the device 10 has been estimated by the viewing environment estimation unit 203A in step S402 according to the presence / absence of the user 10, the number of users 10, or the state of the user 10. The control content of 101 is determined. Detailed processing in step S413 will be described later.
 ステップS421にて、制御処理部203は、チャネルの指定を受信する。ここで、チャネルとは、特定のキーワード又はジャンルに関連するコンテンツの集合、又は、特定の提供者が提供するコンテンツの集合などを意味する。制御処理部203は、例えば、ユーザ10がリモコン103による操作により指定するキーワード又はジャンルを受信する。 In step S421, the control processing unit 203 receives a channel designation. Here, the channel means a set of contents related to a specific keyword or genre, or a set of contents provided by a specific provider. For example, the control processing unit 203 receives a keyword or a genre designated by the user 10 through an operation with the remote controller 103.
 ステップS422にて、制御処理部203は、ステップS421で受信したチャネルの指定に基づいて、コンテンツの再生設定を変更する。 In step S422, the control processing unit 203 changes the content playback setting based on the channel designation received in step S421.
 上記ステップS406、S413、又は、S422を終了したら、図10に示される一連の処理を終了する。 When step S406, S413, or S422 is finished, the series of processes shown in FIG.
 次に、図10のステップS412の詳細な処理について4つの例を示しながら説明する。 Next, detailed processing in step S412 in FIG. 10 will be described with reference to four examples.
 図11は、本実施の形態に係る視聴環境判定処理の第一例を示すフロー図である。図11に示される処理は、図10のステップS412に含まれる処理の一例である。 FIG. 11 is a flowchart showing a first example of the viewing environment determination process according to the present embodiment. The process shown in FIG. 11 is an example of the process included in step S412 of FIG.
 ステップS501にて、制御処理部203の視聴環境推定部203Aは、センサ201から出力された二次元画像又はセンシング情報などの情報を解析することで、ユーザ10の有無、又は、ユーザ10の人数などを判断する。 In step S <b> 501, the viewing environment estimation unit 203 </ b> A of the control processing unit 203 analyzes information such as a two-dimensional image or sensing information output from the sensor 201, so that the presence or absence of the user 10, the number of users 10, and the like Judging.
 ユーザ10の有無、又は、ユーザ10の人数の判断方法に関しては特に限定しない。例えば、取得された時刻の異なる複数の画像の変化、つまり、画像間の差分からユーザ10が存在するか否かを判断してもよい。取得された時刻を取得時刻ともいう。取得時刻の異なる複数の画像の変化、つまり、画像間の差分とは、例えば、複数の画像間で所定の時間内に所定の輝度値が閾値以上変化した画素領域又は差分領域などを示す。当該差分領域は、画像中の動きのある領域であると推定できる。このように、取得時刻の異なる複数の画像間の差分を検出することで、空間内における、動きがあるユーザ10の存在を特定できる。また、画像中における、差分が検出された領域の数を計測することで、ユーザ10の人数を特定することができる。また、ユーザ10の有無を判断するその他の方法として、例えば可視画像の場合、画像中の色情報、輝度の特徴、又は、形状の特徴等から画像におけるユーザ10の領域を特定してもよい。また、熱画像の場合、画像中の温度に関する情報を基に画像におけるユーザ10の領域を特定してもよい。 There is no particular limitation on the method of determining the presence or absence of the user 10 or the number of users 10. For example, it may be determined whether or not the user 10 exists from changes in a plurality of images obtained at different times, that is, differences between the images. The acquired time is also referred to as an acquisition time. A change in a plurality of images having different acquisition times, that is, a difference between images indicates, for example, a pixel region or a difference region in which a predetermined luminance value changes between a plurality of images within a predetermined time by a threshold value or more. The difference area can be estimated to be an area with motion in the image. Thus, by detecting the difference between a plurality of images having different acquisition times, it is possible to specify the presence of the user 10 having movement in the space. Moreover, the number of users 10 can be specified by measuring the number of areas in which differences are detected in the image. As another method for determining the presence or absence of the user 10, for example, in the case of a visible image, the region of the user 10 in the image may be specified from color information, luminance characteristics, shape characteristics, or the like in the image. In the case of a thermal image, the area of the user 10 in the image may be specified based on information about the temperature in the image.
 ステップS502にて、視聴環境推定部203Aは、ステップS501の判断結果を踏まえ、画像を取得した空間内にユーザ10が存在するか否かを判断し、その後の処理を分岐する。ユーザ10が存在する場合(ステップS502でYes)には、ステップS503の処理に進む。一方でユーザ10が存在しない場合(ステップS502でNo)には、ステップS412の処理を抜け、視聴環境推定部203Aは、ユーザ10が存在しない旨の情報を制御内容決定部203Bに出力する。 In step S502, the viewing environment estimation unit 203A determines whether or not the user 10 exists in the space from which the image is acquired based on the determination result in step S501, and branches the subsequent processing. If the user 10 exists (Yes in step S502), the process proceeds to step S503. On the other hand, if the user 10 does not exist (No in step S502), the process of step S412 is exited, and the viewing environment estimation unit 203A outputs information indicating that the user 10 does not exist to the control content determination unit 203B.
 ステップS503にて、視聴環境推定部203Aは、画像中のユーザ10と特定した領域に関して、ユーザ10の視線が機器101に向いているか否かを特定する。ここで、機器101に向いているか否かを特定する方法は特に限定しない。 In step S503, the viewing environment estimation unit 203A specifies whether or not the line of sight of the user 10 is facing the device 101 with respect to the area specified as the user 10 in the image. Here, the method for specifying whether or not the device 101 is suitable is not particularly limited.
 例えば、視聴環境推定部203Aは、画像中においてステップS501にてユーザ10と特定された領域に対して、顔の要素を分析し、ユーザ10の視線が機器101を向いているか否かを判断してもよい。その場合、事前に、例えば機器101の出荷時点に、画像中におけるユーザ10に対する一般的な視線の判定ができることが前提とされる。なお、さらに特定環境に居住するユーザ10の特徴がコンテンツ管理部204などに記録されていることが認識率向上のために望ましい。また、機器101を使用するユーザ10およびユーザ10の特徴を事前に取得し保持しておき、画像中のユーザ10と特定した領域と比較することで特定の人か否かを判断してもよい。この事前の取得を、事前登録又はキャリブレーションともいう。これによって、より検出精度が向上する。 For example, the viewing environment estimation unit 203A analyzes facial elements for the area identified as the user 10 in step S501 in the image, and determines whether the line of sight of the user 10 is facing the device 101. May be. In this case, it is assumed that a general line of sight for the user 10 in the image can be determined in advance, for example, when the device 101 is shipped. In addition, it is desirable to improve the recognition rate that the characteristics of the user 10 living in a specific environment are recorded in the content management unit 204 or the like. Further, the user 10 who uses the device 101 and the characteristics of the user 10 may be acquired and held in advance, and it may be determined whether or not the user 10 is a specific person by comparing the user 10 in the image with the specified area. . This advance acquisition is also referred to as advance registration or calibration. This further improves the detection accuracy.
 ステップS504にて、視聴環境推定部203Aは、ステップS503で特定したユーザ10の状態を、機器101の視聴環境の推定結果とする。ユーザ10の状態の具体例は、注視の度合いを示す目配せに関する状態である。 In step S504, the viewing environment estimation unit 203A sets the state of the user 10 specified in step S503 as the estimation result of the viewing environment of the device 101. A specific example of the state of the user 10 is a state relating to the gaze indicating the degree of gaze.
 ここで、ユーザ10の状態を推定する方法は特に限定しない。例えば、取得時刻が異なる複数枚の画像の変化を解析することで、ユーザ10が機器101を注視しているか、又は、偶発的に機器101の方を向いているかを推定してもよい。この場合、時間的な変化が大きければ「偶発的」と推定し、時間的な変化が小さければ「注視」と推定する。また、センサ201が二次元画像を取得しないセンサである場合には、センサが取得したセンサ情報の時間的な変化を基に、注視の状態であるのか、それ以外の状態(睡眠などを含む状態)であるのかを推定してもよい。 Here, the method for estimating the state of the user 10 is not particularly limited. For example, by analyzing changes in a plurality of images having different acquisition times, it may be estimated whether the user 10 is watching the device 101 or accidentally facing the device 101. In this case, if the temporal change is large, it is estimated as “accidental”, and if the temporal change is small, it is estimated as “gazing”. In addition, when the sensor 201 is a sensor that does not acquire a two-dimensional image, whether the sensor 201 is in a gaze state based on temporal changes in sensor information acquired by the sensor, or other states (states including sleep etc.) ) May be estimated.
 ステップS504の処理を実施した後、もしくは、ステップS502でユーザ10が存在しないと判断された(ステップS502でNo)後、ステップS412の処理を完了しステップS413に進む。 After executing the process of step S504, or after determining that the user 10 does not exist in step S502 (No in step S502), the process of step S412 is completed and the process proceeds to step S413.
 なお、ステップS502でユーザ10が存在すると判断された(ステップS502で「Yes」)後にステップS504の処理を実行してステップS412の処理を完了した場合、視聴環境推定部203Aは、制御内容決定部203Bに、(i)ユーザ10の種類、又は、人の有無、(ii)存在するユーザ10の数、(iii)存在するユーザ10の状態(注視、又は、その他:睡眠など)、に関する情報のうち少なくともいずれか一つの情報を出力する。ここで、ユーザの種類とは、ユーザの性別又は年齢などを意味し、個人宅での使用の場合には、当該個人宅の主人であるか、夫人であるか、又はゲストであるかの別などを意味する。 When it is determined in step S502 that the user 10 is present (“Yes” in step S502), when the process of step S504 is executed and the process of step S412 is completed, the viewing environment estimation unit 203A controls the control content determination unit 203A. 203B includes information on (i) the type of the user 10 or the presence or absence of a person, (ii) the number of the existing users 10, and (iii) the state of the existing users 10 (gaze or other: sleep, etc.). At least one of the information is output. Here, the type of user means the gender or age of the user, and in the case of use in a private house, whether it is the owner, the husband or the guest of the private house. Means.
 また、ステップS502でユーザ10が存在しないと判断された(ステップS502で「No」)後にステップS412の処理を完了した場合、視聴環境推定部203Aは、制御内容決定部203Bに、(iv)空間内にユーザ10が存在しない旨の情報を出力する。 When it is determined in step S502 that the user 10 does not exist (“No” in step S502), and the processing in step S412 is completed, the viewing environment estimation unit 203A sends (iv) space to the control content determination unit 203B. The information indicating that the user 10 does not exist is output.
 図12Aは、本実施の形態に係る視聴環境判定処理の第二例を示すフロー図である。図12Aに示される処理は、図10のステップS412に含まれる処理の一例である。 FIG. 12A is a flowchart showing a second example of the viewing environment determination process according to the present embodiment. The process shown in FIG. 12A is an example of the process included in step S412 of FIG.
 ステップS511にて、制御処理部203の視聴環境推定部203Aは、センサ201から出力された二次元画像又はセンシング情報などの情報を解析することで、ユーザ10の有無、又は、ユーザ10の人数などを判断する。 In step S <b> 511, the viewing environment estimation unit 203 </ b> A of the control processing unit 203 analyzes information such as a two-dimensional image or sensing information output from the sensor 201, so that the presence or absence of the user 10, the number of users 10, and the like Judging.
 ステップS512にて、視聴環境推定部203Aは、センサ201としての照度センサにより機器101の周囲の照度を取得し、取得した照度が規定値以下であるか否かを判定する。ここで、照度の規定値は、例えば、薄暗い室内に相当する300~500ルクス程度である。照度が規定値以下である場合(ステップS512でYes)には、ステップS513に進み、そうでない場合(ステップS512でNo)には、図12Aに示される一連の処理を終了する。 In step S512, the viewing environment estimation unit 203A acquires the illuminance around the device 101 using the illuminance sensor as the sensor 201, and determines whether the acquired illuminance is equal to or less than a specified value. Here, the prescribed value of illuminance is, for example, about 300 to 500 lux corresponding to a dimly lit room. If the illuminance is less than or equal to the specified value (Yes in step S512), the process proceeds to step S513. If not (No in step S512), the series of processes illustrated in FIG.
 ステップS513にて、視聴環境推定部203Aは、ステップS512で検出した照度を機器101の視聴環境の推定結果とする。ステップS513を終了したら、図12Aに示される一連の処理を終了する。 In step S513, the viewing environment estimation unit 203A uses the illuminance detected in step S512 as the estimation result of the viewing environment of the device 101. When step S513 is completed, the series of processes shown in FIG. 12A is ended.
 図12Bは、本実施の形態に係る視聴環境判定処理の第三例を示すフロー図である。図12Bに示される処理は、図10のステップS412に含まれる処理の一例である。 FIG. 12B is a flowchart showing a third example of the viewing environment determination process according to the present embodiment. The process shown in FIG. 12B is an example of the process included in step S412 of FIG.
 ステップS521にて、制御処理部203の視聴環境推定部203Aは、センサ201から出力された二次元画像又はセンシング情報などの情報を解析することで、ユーザ10の有無、又は、ユーザ10の人数などを判断する。 In step S <b> 521, the viewing environment estimation unit 203 </ b> A of the control processing unit 203 analyzes information such as a two-dimensional image or sensing information output from the sensor 201, so that the presence or absence of the user 10, the number of users 10, and the like Judging.
 ステップS522にて、視聴環境推定部203Aは、ステップS521の判断結果を踏まえ、画像を取得した空間内にユーザ10が存在するか否かを判断し、その後の処理を分岐する。ユーザ10が存在する場合(ステップS522でYes)には、ステップS523の処理に進む。一方でユーザ10が存在しない場合(ステップS522でNo)には、ステップS412の処理を抜け、視聴環境推定部203Aは、ユーザ10が存在しない旨の情報を制御内容決定部203Bに出力する。 In step S522, the viewing environment estimation unit 203A determines whether the user 10 exists in the space from which the image is acquired based on the determination result in step S521, and branches the subsequent processing. If the user 10 exists (Yes in step S522), the process proceeds to step S523. On the other hand, when the user 10 does not exist (No in step S522), the process of step S412 is exited, and the viewing environment estimation unit 203A outputs information indicating that the user 10 does not exist to the control content determination unit 203B.
 ステップS523にて、視聴環境推定部203Aは、画像中のユーザ10と特定した領域に関して、ユーザ10が機器101から見ていずれの方向に存在するか否かを特定する。ここで、ユーザ10がいずれの方向に存在するかを特定する方法は特に限定しない。 In step S523, the viewing environment estimation unit 203A identifies in which direction the user 10 is present as viewed from the device 101 with respect to the area identified as the user 10 in the image. Here, the method for specifying in which direction the user 10 exists is not particularly limited.
 例えば、視聴環境推定部203Aは、画像中においてステップS521にてユーザ10と特定された領域が、画像全体のうちのどの位置に存在するかを分析することで、ユーザ10が機器101から見ていずれの方向に存在するかを判断してもよい。 For example, the viewing environment estimation unit 203A analyzes the position where the area identified as the user 10 in step S521 in the image exists in the entire image, so that the user 10 can see from the device 101. It may be determined in which direction.
 ステップS524にて、視聴環境推定部203Aは、ステップS523で特定した、ユーザ10が機器101から見ていずれの方向に存在するかを示す情報を、機器101の視聴環境の推定結果とする。 In step S524, the viewing environment estimation unit 203A uses the information specified in step S523, which indicates in which direction the user 10 is present as viewed from the device 101, as the estimation result of the viewing environment of the device 101.
 ステップS524の処理を実施した後、もしくは、ステップS522でユーザ10が存在しないと判断された(ステップS502でNo)後、ステップS412の処理を完了しステップS413に進む。 After performing the process of step S524, or after determining that the user 10 does not exist in step S522 (No in step S502), the process of step S412 is completed and the process proceeds to step S413.
 図12Cは、本実施の形態に係る視聴環境判定処理の第四例を示すフロー図である。図12Cに示される処理は、図10のステップS412に含まれる処理の一例である。 FIG. 12C is a flowchart showing a fourth example of the viewing environment determination process according to the present embodiment. The process shown in FIG. 12C is an example of the process included in step S412 of FIG.
 ステップS531にて、制御処理部203の視聴環境推定部203Aは、センサ201から出力された二次元画像又はセンシング情報などの情報を解析することで、ユーザ10の有無、又は、ユーザ10の人数などを判断する。 In step S531, the viewing environment estimation unit 203A of the control processing unit 203 analyzes the information such as the two-dimensional image or the sensing information output from the sensor 201, so that the presence or absence of the user 10, the number of the users 10, etc. Judging.
 ステップS532にて、視聴環境推定部203Aは、センサ201としてのマイクにより機器101の周囲から収音される音量(収音音量ともいう)を取得し、取得した収音音量が規定値以下であるか否かを判定する。ここで、収音音量の規定値は、例えば、比較的静かな室内に相当する30~40dB程度である。照度が規定値以下である場合(ステップS532でYes)には、ステップS533に進み、そうでない場合(ステップS532でNo)には、図12Cに示される一連の処理を終了する。 In step S532, the viewing environment estimation unit 203A acquires a sound volume (also referred to as a sound collection volume) collected from around the device 101 by the microphone serving as the sensor 201, and the acquired sound collection volume is equal to or less than a specified value. It is determined whether or not. Here, the specified value of the sound collection volume is, for example, about 30 to 40 dB corresponding to a relatively quiet room. If the illuminance is less than or equal to the specified value (Yes in step S532), the process proceeds to step S533, and if not (No in step S532), the series of processes illustrated in FIG.
 ステップS533にて、視聴環境推定部203Aは、ステップS532で検出した収音音量を機器101の視聴環境の推定結果とする。ステップS533を終了したら、図12Cに示される一連の処理を終了する。 In step S533, the viewing environment estimation unit 203A sets the sound collection volume detected in step S532 as the estimation result of the viewing environment of the device 101. When step S533 is completed, the series of processing illustrated in FIG. 12C is terminated.
 図13は、本実施の形態に係る制御内容決定処理の一例を示すフロー図である。図13を参照しながら、制御処理部203が有する制御内容決定部203Bの詳細を示す。 FIG. 13 is a flowchart showing an example of the control content determination process according to the present embodiment. Details of the control content determination unit 203B included in the control processing unit 203 will be described with reference to FIG.
 ステップS601にて、制御内容決定部203Bは、制御内容決定のためのテーブルをコンテンツ管理部204から取得する。当該テーブルは、図16~図20(後述)に示されるテーブルである。 In step S601, the control content determination unit 203B acquires a table for determining the control content from the content management unit 204. The table is a table shown in FIGS. 16 to 20 (described later).
 ステップS602にて制御内容決定部203Bは、ステップS601にて取得したテーブルを参照し、ステップS412にて推定した視聴環境に基づいて、コンテンツの提示に関する制御内容を決定する。 In step S602, the control content determination unit 203B refers to the table acquired in step S601, and determines the control content related to the content presentation based on the viewing environment estimated in step S412.
 ステップS603にて、制御内容決定部203Bは、ステップS602で決定した制御内容に基づいてコンテンツの提示に関する制御をする。具体的には、制御内容決定部203Bは、ステップS602で決定したコンテンツを取得して、取得したコンテンツを出力部202により出力してユーザ10に提示する。 In step S603, the control content determination unit 203B performs control related to content presentation based on the control content determined in step S602. Specifically, the control content determination unit 203B acquires the content determined in step S602, outputs the acquired content by the output unit 202, and presents it to the user 10.
 コンテンツの提示に関する制御では、例えば、所定の対応付けを参照することで、センサ201により取得された環境情報に対応付けられた制御の内容である、機器101により提示すべきコンテンツを選択し、選択されたコンテンツを提示する制御を行ってもよい。 In the control related to the presentation of content, for example, by referring to a predetermined association, the content to be presented by the device 101, which is the content of the control associated with the environment information acquired by the sensor 201, is selected and selected. You may perform control which shows the content which was performed.
 図14は、本実施の形態における空間の状態と、出力される情報の例とを示す説明図である。より具体的には、図14では、視聴環境推定部203Aが、ステップS501からS504までの処理により推定した空間内の状態を示す図を上段に示しており、また、制御内容決定部203Bへ出力する情報の例を示す図を下段に示している。図14の(a)は、1人の起床中のユーザ10と、1匹の犬とが、空間内に同時に存在する状態を示している。図14の(b)は、1人の起床中のユーザ10と、2匹の犬とが、空間内に存在する状態を示している。視聴環境推定部203Aは、これらの状態からの推定により、上記(i)~(iv)の少なくともいずれかの情報を制御内容決定部203Bに出力する。 FIG. 14 is an explanatory diagram showing the state of the space and an example of output information in the present embodiment. More specifically, in FIG. 14, a diagram showing the state in the space estimated by the viewing environment estimation unit 203A through the processing from steps S501 to S504 is shown in the upper stage, and is output to the control content determination unit 203B. The figure which shows the example of the information to perform is shown in the lower stage. FIG. 14A shows a state in which a user 10 and one dog who are getting up simultaneously exist in the space. FIG. 14B shows a state in which the user 10 who is getting up and two dogs are present in the space. The viewing environment estimation unit 203A outputs at least one of the information (i) to (iv) to the control content determination unit 203B based on the estimation from these states.
 なお、ステップS504にて視聴環境推定部203Aは、「起床」又は「注視」という状態に代えて、その他の情報を推定してもよいし、「起床」又は「注視」という状態に加えて、その他の情報を推定してもよい。 In step S504, the viewing environment estimation unit 203A may estimate other information instead of the state of “wake up” or “gaze”, or in addition to the state of “wake up” or “gaze” Other information may be estimated.
 例えば、図14の(a)及び(b)の場合、視聴環境推定部203Aは、機器101に対するユーザ10の向きを推定している。ここで、ユーザ10の向きは、例えば、正面又は横向きなどである。ユーザ10の向きを推定する方法は、既知の手法を採用することができ、特に限定しない。例えば、顔認識技術等を採用し、顔の向きを推定することでそのユーザ10の向きを推定してもよい。向きを推定することにより、ユーザ10が機器101の方向を向いているか否か、すなわち、機器101に関心を持っているか否かを推定することができるので、後述する制御内容決定部203Bでの制御内容決定において、ユーザ10にとってより適切な制御、又は、ユーザ10の状態により適合する制御を決定することができる。よって、空間内にユーザ10が存在すると推定された場合には、加えてユーザ10の向きを推定するようにすることが好ましい。 For example, in the case of (a) and (b) in FIG. 14, the viewing environment estimation unit 203 </ b> A estimates the orientation of the user 10 with respect to the device 101. Here, the orientation of the user 10 is, for example, front or side orientation. A method for estimating the orientation of the user 10 can employ a known method and is not particularly limited. For example, the orientation of the user 10 may be estimated by employing a face recognition technique or the like and estimating the orientation of the face. By estimating the direction, it is possible to estimate whether or not the user 10 is facing the direction of the device 101, that is, whether or not the user 10 is interested in the device 101. In the control content determination, control more suitable for the user 10 or control more suitable for the state of the user 10 can be determined. Therefore, when it is estimated that the user 10 exists in the space, it is preferable to additionally estimate the direction of the user 10.
 さらに、例えば、図14の(a)のように、そのユーザ10の行動を推定してもよい。ここで、ユーザ10の行動とは、読書中、食事中、又は、歩行中などである。行動を推定する方法に関しては既知の手法を採用することができ、特に限定しない。取得時刻の異なる複数の画像間の差分を算出することで、ユーザ10が動いているか、又は、静止しているかを判断することができるので、読書中もしくは歩行中等の行動を推定できる。また所定の場所に静止している場合、その場所によって食事中なのか読書中なのか等の行動を推定してもよい。行動を推定することによっても、ユーザ10が、機器101に関心を持っている状態か否かを推定することができる。また、ユーザ10の精神状態も推定できるので、後述する制御内容決定部203Bでの制御内容決定において、ユーザ10にとってより適切な制御、又は、ユーザ10の状態により適合する制御を決定することができる。ここで、ユーザ10の精神状態とは、落ち着きたい精神状態、又は、活発な精神状態などである。よって、起床中のユーザ10が存在する場合に、加えて行動を推定するようにすることが好ましい。 Further, for example, as shown in FIG. 14A, the action of the user 10 may be estimated. Here, the action of the user 10 is during reading, eating, or walking. As a method for estimating the behavior, a known method can be adopted, and there is no particular limitation. By calculating the difference between a plurality of images having different acquisition times, it can be determined whether the user 10 is moving or stationary, so that it is possible to estimate an action such as reading or walking. Further, when the user is stationary at a predetermined place, an action such as whether he is eating or reading may be estimated depending on the place. It is possible to estimate whether the user 10 is interested in the device 101 also by estimating the behavior. Moreover, since the mental state of the user 10 can also be estimated, in the control content determination in the control content determination unit 203B described later, it is possible to determine a control more suitable for the user 10 or a control more suitable for the state of the user 10. . Here, the mental state of the user 10 is a mental state in which the user 10 wants to calm down or an active mental state. Therefore, when there is a user 10 getting up, it is preferable to additionally estimate the behavior.
 図15は、本実施の形態における人物および空間の状態の推定結果を示すテーブルの説明図である。より具体的には、図15は、視聴環境推定部203Aが、制御内容決定部203Bに出力する情報を管理したテーブル801の例を示す。これらの情報はテーブル801として、コンテンツ管理部204の視聴環境蓄積DB204Aにログ情報として蓄積されてもよいし、一時的に記録され適宜消去されてもよい。視聴環境蓄積DB204Aにログ情報として蓄積されている場合は、ある程度空間内のユーザ10の状態に関するパターンを学習することができる。よって、処理する情報量の削減、又は、視聴環境推定部203Aの推定精度の向上などに貢献することができる。また、このように、視聴環境蓄積DB204Aによってテーブル化して管理する場合は、視聴環境推定部203Aが推定した情報を制御内容決定部203Bに直接に出力するのではなく、推定した情報をコンテンツ管理部204の視聴環境蓄積DB204Aに、一旦、出力するようにしてもよい。そして、ステップS413では制御内容決定部203Bが視聴環境蓄積DB204Aから情報を取得し、制御内容を決定してもよい。 FIG. 15 is an explanatory diagram of a table showing the estimation results of the person and space states in the present embodiment. More specifically, FIG. 15 shows an example of a table 801 in which the viewing environment estimation unit 203A manages information output to the control content determination unit 203B. These pieces of information may be stored as log information in the viewing environment storage DB 204A of the content management unit 204 as a table 801, or may be temporarily recorded and appropriately deleted. When it is stored as log information in the viewing environment storage DB 204A, a pattern related to the state of the user 10 in the space can be learned to some extent. Therefore, it is possible to contribute to a reduction in the amount of information to be processed or an improvement in estimation accuracy of the viewing environment estimation unit 203A. Further, when the viewing environment accumulation DB 204A manages the table in this way, the information estimated by the viewing environment estimation unit 203A is not directly output to the control content determination unit 203B, but the estimated information is not output directly to the content management unit. You may make it output once to 204 viewing-and-listening environment storage DB204A. In step S413, the control content determination unit 203B may acquire information from the viewing environment accumulation DB 204A and determine the control content.
 図15の例では、センサ201から制御処理部203の視聴環境推定部203Aに、15分おきに検出結果が出力されており、15分おきのユーザ状態の推定結果がテーブル化されている。なお、センサ201が検出する頻度、及び、視聴環境推定部203Aが推定する頻度は15分に限られない。また、図15のテーブル801では、図14に示した各状態に対応するログ情報の例が「状態の例」として記載されている。例えば、図14の(a)の状態は、図15のログ3に対応しており、1人のユーザ10が存在しており、1人のユーザ10が起床中であり横向きで読書中であるという状態が視聴環境蓄積DB204Aのテーブル801に管理されている。なお、この「状態の例」は説明のために記載しているものであり、テーブル801に蓄積されている必要はない。 In the example of FIG. 15, the detection result is output from the sensor 201 to the viewing environment estimation unit 203A of the control processing unit 203 every 15 minutes, and the estimation result of the user state every 15 minutes is tabulated. Note that the frequency detected by the sensor 201 and the frequency estimated by the viewing environment estimation unit 203A are not limited to 15 minutes. Further, in the table 801 in FIG. 15, an example of log information corresponding to each state illustrated in FIG. 14 is described as “state example”. For example, the state of FIG. 14A corresponds to the log 3 of FIG. 15, and there is one user 10, and one user 10 is getting up and reading in the sideways direction. Is managed in the table 801 of the viewing environment storage DB 204A. This “example of state” is described for explanation, and need not be stored in the table 801.
 以上、視聴環境推定部203Aによって、空間内にユーザ10が存在するか否か、及び、ユーザ10が存在する場合にはそのユーザ10の人数及び状態等を推定し、制御内容決定部203Bに出力する。なお、視聴環境推定部203Aは、必ずしもステップS501からS504の順番に処理を実行しなくてもよい。また一部のステップを省略してもよい。また各ステップをまとめて実施してもよい。すなわち視聴環境推定部203Aは、結果として上記(i)~(iv)の情報のうち少なくともいずれかを制御内容決定部203Bに出力できれば、その処理の順序又は内容に関して異なる手段を用いても構わない。 As described above, the viewing environment estimation unit 203A estimates whether or not the user 10 exists in the space, and if the user 10 exists, the number and state of the user 10 are estimated and output to the control content determination unit 203B. To do. Note that the viewing environment estimation unit 203A does not necessarily have to execute the processes in the order of steps S501 to S504. Some steps may be omitted. Moreover, you may implement each step collectively. That is, the viewing environment estimation unit 203A may use different means regarding the processing order or content as long as it can output at least one of the information (i) to (iv) to the control content determination unit 203B as a result. .
 以降において、コンテンツ管理部204が管理する制御内容決定のためのテーブルの例を示しながら、制御内容を決定する処理について説明する。 Hereinafter, a process for determining the control content will be described with reference to an example of a table for determining the control content managed by the content management unit 204.
 図16は、本実施の形態における、カメラによる目配せ判定を用いた制御内容決定のためのテーブル901Aの説明図である。 FIG. 16 is an explanatory diagram of a table 901A for determining control contents using a camera-side determination according to the present embodiment.
 テーブル901Aは、所定の対応付けの一例である。テーブル901Aは、機器101の環境情報の変化を示す情報と、コンテンツの提示の開始、停止又は終了との対応付けを含む。また、コンテンツの提示に関する制御では、テーブル901Aを参照することで、取得した環境情報の変化に対応付けられた、機器101により提示すべきコンテンツの提示の開始、停止又は終了を行う。 The table 901A is an example of a predetermined association. The table 901A includes correspondence between information indicating a change in the environment information of the device 101 and the start, stop, or end of content presentation. In the control related to content presentation, the table 901A is referenced to start, stop, or end the presentation of content to be presented by the device 101, which is associated with the acquired change in the environment information.
 テーブル901Aは、より具体的には、センサ201としてカメラを搭載し、ユーザ10の状態としての目配せ行動に応じて機器101の出力部202で実行する動作を規定したテーブルの例である。 More specifically, the table 901 </ b> A is an example of a table in which a camera is mounted as the sensor 201 and an operation to be executed by the output unit 202 of the device 101 in accordance with the look-ahead behavior as the state of the user 10.
 制御内容決定部203Bがテーブル901Aを参照する場合、視聴環境推定部203Aによって、前状態と後状態とにおいて、人が「存在しない」もしくは「睡眠」であると判断されていた場合、制御内容決定部203Bは、機器101の出力動作として「規定時間以上変化がなければ再生を停止する」動作を決定する。ここで、人が「存在しない」もしくは「睡眠」であると判断されるのは、例えば、図11のステップS502においてユーザ10が存在しないと判断された場合である。また、「前状態」及び「後状態」は、それぞれ、判断時の前の所定の時点と、判断時の後の所定の時点とをいう。 When the control content determination unit 203B refers to the table 901A, when the viewing environment estimation unit 203A determines that the person is “not present” or “sleep” in the previous state and the rear state, the control content determination is performed. The unit 203B determines an operation of “stop reproduction if there is no change over a predetermined time” as an output operation of the device 101. Here, the case where it is determined that the person is “not present” or “sleeping” is, for example, the case where it is determined in step S502 in FIG. 11 that the user 10 does not exist. The “previous state” and “rear state” refer to a predetermined time point before the determination time and a predetermined time point after the determination time, respectively.
 また、視聴環境推定部203Aによって、人が存在しており、かつ、前状態と後状態とで「正面」が継続すると判断された場合、制御内容決定部203Bは、機器101の出力動作として「当該映像音響コンテンツの再生継続」動作を決定する。なお、このとき、コンテンツを視聴するユーザ10が機器101に向かって正面を向いている状態にあったことに基づいて、ユーザ10が注視してコンテンツを見ていたものと判断し、当該映像音響コンテンツに対する注目ポイントを向上してもよい。この注目ポイントは、当該映像音響コンテンツに紐づいて管理され、当該映像音響コンテンツを制作したクリエータ20にフィードバックされ得る。また、注目ポイントに限らず、当該映像音響コンテンツが再生された際の音量、又は、総再生時間など、ユーザ10が視聴することに伴って生ずるあらゆる情報を記録しておけば、当該映像音響コンテンツを制作したクリエータ20は、当該映像音響コンテンツの改善または次回制作する映像音響コンテンツの検討要素として活用することができる。 When the viewing environment estimation unit 203A determines that there is a person and that “front” continues in the front state and the rear state, the control content determination unit 203B sets “ “Continue playback of audiovisual content” operation is determined. At this time, based on the fact that the user 10 viewing the content is facing the front toward the device 101, it is determined that the user 10 is watching the content while watching the content, and the video and audio You may improve the attention point with respect to a content. This point of interest is managed in association with the audiovisual content and can be fed back to the creator 20 that produced the audiovisual content. In addition, not only the point of interest, but also any information that accompanies viewing by the user 10 such as the volume when the audiovisual content is reproduced or the total reproduction time is recorded. The creator 20 that produced the video can be used as an improvement element of the video / audio content or as an examination element of the video / audio content to be produced next time.
 また、視聴環境推定部203Aによって、人が存在しており、かつ、前状態と後状態とで「横」を向いた状態が続いていると判断された場合、制御内容決定部203Bは、機器101の出力動作として「当該映像音響コンテンツの再生継続」動作を決定する。このとき、上記の「正面を向く状態の継続」の場合と同様に、フィードバックを記録できる。ユーザ10が横を向いた状態を継続しているときは、コンテンツが心地よいBGV(Back Ground Visual)であるとユーザ10に認識されていると考えられ、横を向いた状態である累計時間をクリエータ20にフィードバックすることができる。 If the viewing environment estimation unit 203A determines that there is a person and the state of facing sideways continues between the front state and the rear state, the control content determination unit 203B As the output operation 101, “continue reproduction of the audiovisual content” operation is determined. At this time, the feedback can be recorded as in the case of “continuation of the state of facing the front”. When the user 10 continues to face sideways, it is considered that the user 10 recognizes that the content is a comfortable BGV (Back Ground Visual), and the cumulative time of the state facing sideways is the creator. 20 can be fed back.
 また、視聴環境推定部203Aによって、人が「正面又は横」から「なし(存在しない)」状態に変化した場合、制御内容決定部203Bは、機器101の出力動作として「映像音響コンテンツの再生継続」動作を決定する。これは、ユーザ10が存在しなくなったことが、一時的な退室によるものである可能性があるため、比較的短時間後にユーザ10が戻ってくることを想定して、様子見として行う動作ともいえる。 When the viewing environment estimation unit 203A changes the state from “front or side” to “none (does not exist)”, the control content determination unit 203B sets “continue playback of audiovisual content” as the output operation of the device 101. "Determine the action. This is because there is a possibility that the fact that the user 10 no longer exists is due to a temporary exit, so that it is assumed that the user 10 will return after a relatively short time, and that the operation is performed as a state-of-view. I can say that.
 また、その逆に、ユーザ10が暫く存在せず、映像音響コンテンツの再生が停止していた場合、前状態「なし(存在しない)」から後状態「正面又は横」に状態が変化した場合、制御内容決定部203Bは、機器101の出力動作として「停止していた映像音響コンテンツの再生再開」動作を決定する。 On the contrary, when the user 10 has not existed for a while and the reproduction of the audiovisual content has been stopped, the state has changed from the previous state “none (not present)” to the rear state “front or side”. The control content determination unit 203 </ b> B determines the “resumption of reproduction of audiovisual content that has been stopped” operation as the output operation of the device 101.
 また、前状態及び後状態ともに「なし(存在しない)」の状態である場合、この状態から規定時間以上変化がなければ、制御内容決定部203Bは、機器101の出力動作として、「再生停止」動作を決定する。 When both the previous state and the rear state are “none (does not exist)”, if there is no change from this state for a specified time or longer, the control content determination unit 203B performs “stop playback” as the output operation of the device 101. Determine the behavior.
 なお、制御内容決定部203Bが制御内容を決定するために取得するテーブルは、テーブル901Aのみに限られない。 Note that the table acquired by the control content determination unit 203B to determine the control content is not limited to the table 901A.
 図17は、本実施の形態における、照度計による設置環境判定を用いた制御内容決定のためのテーブル901Bの説明図である。テーブル901Bは、所定の対応付けの一例である。テーブル901Bは、機器101の環境情報の変化を示す情報と、コンテンツの音量又は明るさの変更との対応付けを含む。また、コンテンツの提示に関する制御では、所定の対応付けを参照することで、取得した環境情報の変化に対応付けられた、機器101により提示すべきコンテンツの音量又は明るさの変更を行う。 FIG. 17 is an explanatory diagram of a table 901B for determining control content using installation environment determination by an illuminometer in the present embodiment. The table 901B is an example of predetermined association. The table 901B includes correspondence between information indicating changes in the environment information of the device 101 and changes in the volume or brightness of the content. In the control related to the presentation of content, the volume or brightness of the content to be presented by the device 101 associated with the change in the acquired environment information is changed by referring to a predetermined association.
 テーブル901Bは、センサ201として照度計を搭載し、機器101が設置された環境、より具体的には、機器101の周囲の明るさの状態変化に応じて機器101の出力部202で実行する動作を規定したテーブルの例である。 The table 901 </ b> B includes an illuminometer as the sensor 201, and more specifically, an operation executed by the output unit 202 of the device 101 in accordance with an environment in which the device 101 is installed, more specifically, a change in brightness around the device 101. It is an example of a table that defines
 テーブル901Bは、テーブル901Aと同様に、前状態と後状態とを管理している。 The table 901B manages the previous state and the rear state in the same manner as the table 901A.
 機器101の周囲の明るさが「低」つまり暗い状態から「中又は高」つまり比較的明るい状態に変化した場合、制御内容決定部203Bの判定として「周囲の明るさの変化と連動し、ユーザ10が軽快と感じる傾向にあるトーンアップした映像音響コンテンツに切り替え、必要に応じて出力部202のバックライトを明るくする」動作を決定する。機器101の周囲の明るさが上記のように変化するのは、例えば、ユーザ10の起床時、又は、ユーザ10が不在であった部屋にユーザ10が入室した時、などに生じ得る。このとき、再生環境としての照度がいかほどであったかの照度ログの実績をフィードバック記録として記録することができ、任意にクリエータ20が活用することができる。同様に、前状態と後状態との変化に応じて、出力を変化させるものとする。 When the ambient brightness of the device 101 changes from “low”, that is, a dark state, to “medium or high”, that is, a relatively bright state, the control content determination unit 203B determines that “in conjunction with the change in ambient brightness, the user 10 is switched to a tone-up audiovisual content that tends to feel light, and the operation of “lightening the backlight of the output unit 202 as necessary” is determined. The brightness around the device 101 may change as described above, for example, when the user 10 wakes up or when the user 10 enters a room where the user 10 is absent. At this time, the record of the illuminance log as to how much the illuminance as the reproduction environment was can be recorded as a feedback record, and the creator 20 can arbitrarily utilize it. Similarly, the output is changed in accordance with the change between the previous state and the rear state.
 また、機器101の周囲の明るさが「高」つまり明るい状態から「中又は低」つまり比較的暗い状態に変化した場合、制御内容決定部203Bの判定として「周囲の明るさの変化と連動し、落ち着いた映像音響コンテンツに切り替え、必要に応じて出力部202のバックライトを暗くする」動作を決定する。 When the ambient brightness of the device 101 changes from “high”, that is, a bright state, to “medium or low”, that is, a relatively dark state, the control content determination unit 203B determines “in conjunction with a change in ambient brightness. Then, the operation is switched to calm audiovisual content, and the backlight of the output unit 202 is dimmed if necessary.
 また、例えば、機器101の周囲の明るさが「低」つまり暗い状態を維持している場合、制御内容決定部203Bの判定として「規定時間以上変化がなければ再生停止」動作を決定する。 Also, for example, when the brightness of the surroundings of the device 101 is “low”, that is, a dark state is maintained, the control content determination unit 203B determines the “stop playback if there is no change over a specified time” operation.
 また、前状態及び後状態ともに「低」の状態である場合、この状態から規定時間以上変化がなければ、制御内容決定部203Bは、機器101の出力動作として、「再生停止」動作を決定する。 Further, when both the previous state and the rear state are “low” states, if there is no change for a predetermined time or more from this state, the control content determination unit 203B determines the “reproduction stop” operation as the output operation of the device 101. .
 また、例えば、機器101の周囲の明るさが「中」つまり中程度の状態から、「高」つまり明るい状態に変化した場合には、制御内容決定部203Bの判定として「彩度の高いコンテンツに切り替える」動作を決定する。 Further, for example, when the brightness around the device 101 changes from “medium”, that is, a medium state, to “high”, that is, a bright state, the control content determination unit 203B determines as “contents with high saturation”. Determine the "switch" action.
 図18は、本実施の形態における、3軸センサによる傾き判定を用いた制御内容決定のためのテーブル901Cの説明図である。テーブル901Cは、所定の対応付けの一例である。テーブル901Cは、機器101の姿勢を示す情報と、当該姿勢にある機器101によるコンテンツの提示に関する制御との対応付けを含む。また、コンテンツの提示に関する制御では、機器101の姿勢を示す情報に対応付けられた、コンテンツの提示に関する制御を行う。 FIG. 18 is an explanatory diagram of a table 901C for determining control contents using inclination determination by a three-axis sensor in the present embodiment. The table 901C is an example of a predetermined association. The table 901C includes correspondence between information indicating the posture of the device 101 and control related to presentation of content by the device 101 in the posture. In the control related to the presentation of content, the control related to the presentation of content associated with the information indicating the attitude of the device 101 is performed.
 テーブル901Cは、センサ201として3軸センサを搭載し、機器101が設置された環境、より具体的には、機器101本体の傾き状態に応じて機器101の出力部202で実行する動作を規定したテーブルの例である。 The table 901C is equipped with a three-axis sensor as the sensor 201, and defines the operation to be executed by the output unit 202 of the device 101 according to the environment in which the device 101 is installed, more specifically, the tilt state of the device 101 main body. It is an example of a table.
 テーブル901Cは、立ち上がり角θに基づいて機器101本体の設置状態を管理している。機器101本体の設置状態が「水平面からの立上がり角θが0度以上、60度未満」である場合、制御内容決定部203Bは、判定により、「機器が転倒する可能性があるとし、ユーザ10に、文字、音又は光を用いてアラート通知する」動作と、「当該映像音響コンテンツの再生継続」動作とを決定する。このとき、再生環境として本体の設置状態ログの実績(平置き再生)をフィードバック記録として記録することができる。クリエータ20は、このフィードバック記録を任意に活用することができる。なお、この設置状態を、平置き状態ともいう。 The table 901C manages the installation state of the device 101 main body based on the rising angle θ. When the installation state of the main body of the device 101 is “the rising angle θ from the horizontal plane is 0 ° or more and less than 60 °”, the control content determination unit 203B determines that the device 10 may fall over, based on the determination. In addition, an operation of “notifying the alert using characters, sound or light” and an operation of “continuing reproduction of the audiovisual content” are determined. At this time, the actual installation status log (flat playback) can be recorded as a feedback recording as a playback environment. The creator 20 can use this feedback record arbitrarily. This installation state is also referred to as a flat placement state.
 また、機器101本体の設置状態が「水平面からの立上がり角θが60度以上、90度未満」である場合、制御内容決定部203Bは、判定により、本体が斜めにたてかけられた状態では、上部と下部のスピーカでユーザ10の耳までの距離が異なることから、視聴するユーザ10にとっての均衡をはかるよう「上部スピーカの音量よりも下部スピーカの音量を大きくする」動作を決定する。なお、この設置状態を、立て掛け状態ともいう。 Further, when the installation state of the apparatus 101 main body is “the rising angle θ from the horizontal plane is 60 degrees or more and less than 90 degrees”, the control content determination unit 203B determines that the main body is leaned diagonally according to the determination. Since the distance to the user's 10 ear is different between the upper and lower speakers, the operation of “increasing the volume of the lower speaker than the volume of the upper speaker” is determined so as to achieve a balance for the viewing user 10. This installation state is also referred to as a standing state.
 また、機器101本体の設置状態が「水平面からの立上がり角θが90度以上」である場合、制御内容決定部203Bは、判定により、「上部スピーカと下部スピーカで音量を同じにする」動作を決定する。なお、この設置状態を、壁掛け状態、又は、屋根天井設置状態ともいう。 Further, when the installation state of the device 101 main body is “the rising angle θ from the horizontal plane is 90 degrees or more”, the control content determination unit 203B performs an operation of “same volume at the upper speaker and the lower speaker” by the determination. decide. This installation state is also referred to as a wall-mounted state or a roof / ceiling installation state.
 図19は、本実施の形態における、上面及び下面のボタンによる設置環境判定を用いた制御内容決定のためのテーブル901Dの説明図である。テーブル901Dは、機器101の設置状態、つまり、平置き状態、壁掛け状態、立て掛け状態、又は、屋根天井設置状態に応じて、機器101の出力部202で実行する動作を規定したテーブルの例である。 FIG. 19 is an explanatory diagram of a table 901D for determining control contents using installation environment determination using upper and lower buttons in the present embodiment. The table 901D is an example of a table that defines the operation to be executed by the output unit 202 of the device 101 according to the installation state of the device 101, that is, the flat placement state, the wall hanging state, the standing state, or the roof ceiling installation state. .
 ここで、機器101は、ボタンセンサである上部ボタン及び下部ボタンを搭載しているとする。なお、上部ボタンはセンサ201BHに相当し、下部ボタンはセンサ201BLに相当する。 Here, it is assumed that the device 101 has an upper button and a lower button that are button sensors. The upper button corresponds to the sensor 201BH, and the lower button corresponds to the sensor 201BL.
 テーブル901Dは、上部ボタンおよび下部ボタンの状態に基づいて機器101本体の設置状態を管理している。機器101本体の設置状態が、上部ボタン及び下部ボタンともに「ON」である場合、つまり、設置状態が立て掛け状態である場合、制御内容決定部203Bは、判定により、「上部スピーカの音量よりも下部スピーカの音量を大きくする」動作を決定する。本体が斜めになって壁に立て掛けられた状態では、上部スピーカ205からユーザ10の耳までの距離と、下部スピーカ206からユーザ10の耳までの距離とが異なることから、視聴するユーザ10にとっての視点で均衡を図るためである。 The table 901D manages the installation state of the device 101 main body based on the state of the upper button and the lower button. When the installation state of the device 101 is “ON” for both the upper button and the lower button, that is, when the installation state is a leaning state, the control content determination unit 203B determines that “the lower volume than the volume of the upper speaker” The operation of “increasing the volume of the speaker” is determined. When the main body is slanted and leans against the wall, the distance from the upper speaker 205 to the user's 10 ear is different from the distance from the lower speaker 206 to the user's 10 ear. This is to achieve equilibrium from a viewpoint.
 また、機器101本体の設置状態が、上部ボタン及び下部ボタンともに「OFF」である場合、つまり、設置状態が壁掛け状態又は平置き状態である場合、制御内容決定部203Bは、判定により、「上部スピーカ205と下部スピーカ206とで音量を同じにする」動作を決定する。 When the installation state of the apparatus 101 main body is “OFF” for both the upper button and the lower button, that is, when the installation state is a wall-hanging state or a flat placement state, the control content determination unit 203B determines “ The operation of “same volume in speaker 205 and lower speaker 206” is determined.
 図20は、本実施の形態におけるコンテンツ管理テーブルであるテーブル1001の説明図である。テーブル1001は、所定の対応付けの一例である。テーブル1001は、機器101の環境情報と、当該環境情報に適合する環境情報を有する機器101が提示すべきコンテンツの属性を示す属性情報との対応付けを含み、コンテンツの提示に関する制御では、上記所定の対応付けを参照することで、取得した環境情報に対応付けられた属性情報を有するコンテンツの選択を行ってもよい。さらに、上記所定の対応付けは、機器101が提示すべきコンテンツと、当該コンテンツの許容される提示態様を示す許容情報とを含み、コンテンツの提示に関する制御では、許容情報によって許容される提示態様で提示できるコンテンツの選択を行ってもよい。 FIG. 20 is an explanatory diagram of a table 1001 which is a content management table in the present embodiment. The table 1001 is an example of a predetermined association. The table 1001 includes the association between the environment information of the device 101 and attribute information indicating the attribute of the content to be presented by the device 101 having the environment information that matches the environment information. The content having the attribute information associated with the acquired environment information may be selected by referring to the association. Further, the predetermined association includes content to be presented by the device 101 and permissible information indicating a permissible presentation mode of the content. In the control related to content presentation, the predetermined association is a permissible presentation mode. The content that can be presented may be selected.
 テーブル1001は、コンテンツ管理部204に管理されており、図16~図19で説明した出力するコンテンツを管理するテーブルである。また、テーブル1001に記載されているコンテンツは、コンテンツ管理DB208に保持されているものもあれば、放送局からネットワーク又は放送電波を介して配信されるものがあってもよい。 The table 1001 is managed by the content management unit 204, and is a table for managing the content to be output described with reference to FIGS. In addition, some of the contents described in the table 1001 may be held in the contents management DB 208, or some may be distributed from a broadcast station via a network or broadcast radio waves.
 テーブル1001では、各コンテンツに対して、コンテンツ種別、コンテンツID(CID)、名称、音源の有無、音重畳の可否、BGM(Back Ground Music)メタ情報、注目ランク、及び、許容情報が対応付けられて管理されている。 In the table 1001, content type, content ID (CID), name, presence / absence of sound source, availability of sound superimposition, BGM (Back Ground Music) meta information, attention rank, and permissible information are associated with each content. Are managed.
 コンテンツ種別は、当該コンテンツの種別又はカテゴリである。コンテンツ種別は、図9で制御内容決定部203Bが決定した出力内容と対応している。 Content type is the type or category of the content. The content type corresponds to the output content determined by the control content determination unit 203B in FIG.
 コンテンツIDは、当該コンテンツを一意に識別し得る識別子である。 The content ID is an identifier that can uniquely identify the content.
 名称は、当該コンテンツの名称である。 Name is the name of the content.
 音源の有無は、当該コンテンツに紐づけられる音源の有無を示す情報である。 The presence / absence of a sound source is information indicating the presence / absence of a sound source associated with the content.
 音重畳の可否は、当該コンテンツへの音の重畳の可否を示す情報である。 The sound superimposability is information indicating whether sound can be superimposed on the content.
 BGMメタ情報は、当該コンテンツにBGMとして音を重畳する場合の音源ソースの検索に用いることができるメタ情報である。 The BGM meta information is meta information that can be used for searching for a sound source when superimposing a sound as BGM on the content.
 注目ランクは、当該コンテンツを利用するユーザ10のお気に入り度などのレーティング行為から得られる注目度を示す情報である。注目ランクは、個々のユーザ10が注視して視聴したかどうかの注目ポイントとは別に管理するのが基本だが、注目ポイントと連動して注目ランクを加工又は補正してもよい。 The attention rank is information indicating the degree of attention obtained from a rating action such as the degree of favorite of the user 10 who uses the content. The attention rank is basically managed separately from the attention point whether or not each user 10 has watched and watched, but the attention rank may be processed or corrected in conjunction with the attention point.
 許容情報は、当該コンテンツを制作したクリエータ20が意図した出力に関する許容情報であり、当該コンテンツの提示の際に、当該コンテンツの編集、調整又は加工などが許容されるか否かを、その編集等ごとに示す情報である。許容情報は、例えば、コンテンツの正方形形状への切り出しの可否を示す情報である正方形切出し可否情報、又は、つまり、コンテンツを構成する映像の長手が縦方向になる向きでの再生の可否を示す情報を示す縦設置再生可否情報のような、コンテンツの形状又は向きの調整についての許否に関する情報を含む。また、許容情報は、環境設定、つまり、コンテンツを出力するときの環境についての適否に関する情報を含む。 The permissible information is permissible information related to the output intended by the creator 20 who produced the content, and whether or not editing, adjustment, or processing of the content is permitted when the content is presented. It is the information shown for every. The allowance information is, for example, square cutout availability information that is information indicating whether or not the content can be cut into a square shape, that is, information that indicates whether or not playback is possible in a direction in which the length of the video constituting the content is in the vertical direction. Information regarding whether or not to adjust the shape or orientation of the content, such as vertical installation reproduction availability information. In addition, the permissible information includes information related to suitability for environment setting, that is, environment when content is output.
 例えば、ステップS602にて制御内容決定部203Bがコンテンツの再生を出力内容として決定していた場合、テーブル1001のC11などのコンテンツのいずれかが選択される。 For example, if the control content determination unit 203B has determined the content playback as the output content in step S602, one of the contents such as C11 in the table 1001 is selected.
 なお、コンテンツを選択する方法は特に限定しない。例えば、コンテンツによって再生する時間が決まっているものがある場合は、そのときの時間又はコンテンツ種別に対応するものを選択すればよい。 Note that the method for selecting content is not particularly limited. For example, if there is a content whose playback time is determined by the content, the one corresponding to the time or content type at that time may be selected.
 また、ステップS412の状態推定にて、ユーザ10の顔の向き、ユーザ10の行動又は表情などの詳細な状態を推定している場合は、当該状態に合わせて制御内容決定部203BがBGMメタ情報、注目ランク、環境設定などを加味してコンテンツを選択するようにしてもよい。例えば、図14の(b)のように空間内に1人のユーザ10と2匹の犬とが存在し、機器101に対して正面を向いていると視聴環境推定部203Aにより推定された場合は、テーブル1001のBGMメタ情報のうちユーザ10の注視を受けてじっくり閲覧されることが想定される「じっくり」といったキーワードが設定されているコンテンツC11を選択する。ここでは、例えばC11の「ペーパークラフト」というコンテンツが選択される。 Further, in the state estimation in step S412, when the detailed state such as the orientation of the user 10, the action or expression of the user 10 is estimated, the control content determination unit 203B matches the state with the BGM meta information. The content may be selected in consideration of the attention rank, environment setting, and the like. For example, as shown in FIG. 14B, when the viewing environment estimation unit 203A estimates that one user 10 and two dogs exist in the space and are facing the front with respect to the device 101 Selects the content C11 in which a keyword such as “slowly” that is expected to be browsed carefully after receiving the gaze of the user 10 is selected from the BGM meta information in the table 1001. Here, for example, the content “paper craft” of C11 is selected.
 また、図14の(a)のように空間内に1人のユーザ10と1匹の犬とが存在し、人が機器101に対して横を向いており、かつ、読書中であると視聴環境推定部203Aにより推定していた場合は、メタ情報のうち読書を邪魔しないような音楽とマッチする「スロー」といったキーワードが設定されているコンテンツC13を選択する。ここでは例えばC13の「職人技 時計」というコンテンツが選択される。なお、コンテンツの選択基準は上で説明したものに限られず、コンテンツ名をキーワード検索により選択してもよいし、映像コンテンツの内容を直接的に示すメタ情報を管理テーブルに追加して管理してもよい。 Also, as shown in FIG. 14A, when there is one user 10 and one dog in the space, a person is looking sideways with respect to the device 101, and viewing is being performed. If the environment estimation unit 203A has estimated, content C13 in which a keyword such as “slow” that matches music that does not interfere with reading is set in the meta information is selected. In this case, for example, the content “Craftsman's watch” of C13 is selected. Note that the content selection criteria are not limited to those described above, the content name may be selected by keyword search, and meta information directly indicating the content of the video content is added to the management table for management. Also good.
 また、上記の説明では、制御内容決定部203Bが、ユーザ10の有無又は状態に合わせて、各コンテンツに紐づくBGMメタ情報と対応づけてコンテンツを選択する例を説明したがこれに限られない。例えば、ユーザ10、サービス管理者またはクリエータ20が予め嗜好又は想定する行動に合わせて、状態に対応づけて出力するコンテンツのカテゴリを設定しておいてもよい。これによれば、例えば、あるユーザ10は、図14の(b)のような正面を向いた状態のときに、ユーザ10が好きな音楽を再生し、その音楽を音源として重畳が可能な映像コンテンツをコンテンツ候補として設定することもできる。ここでは、C11、C13、C15のコンテンツが、音の重畳が可又は必須となっていることからコンテンツ候補として設定される。このように、より一層、ユーザ10の趣味又は趣向に適合した映像音響コンテンツを、ユーザ10の設定した状態又はタイミングで出力することができる。 In the above description, the example in which the control content determination unit 203B selects the content in association with the BGM meta information associated with each content according to the presence or absence of the user 10 or the state has been described. . For example, a category of content to be output in association with a state may be set in advance in accordance with the behavior that the user 10, the service manager, or the creator 20 likes or assumes. According to this, for example, when a certain user 10 is facing the front as shown in FIG. 14B, the user 10 can play the music that the user 10 likes and the video can be superimposed using the music as a sound source. Content can also be set as a content candidate. Here, the contents of C11, C13, and C15 are set as content candidates because the superimposition of sound is possible or essential. Thus, the audiovisual content suitable for the user's 10 hobbies or preferences can be output in the state or timing set by the user 10.
 また、ユーザ10が存在する場合は、機器101の制御内容決定部203Bがコンテンツを選択するのではなく、複数のコンテンツから、状態に応じた複数のコンテンツ候補を表示してレコメンドし、ユーザ10に選択させるようにしてもよい。 When the user 10 exists, the control content determination unit 203B of the device 101 does not select the content, but displays and recommends a plurality of content candidates according to the state from the plurality of contents, and prompts the user 10 You may make it select.
 本実施の形態ではあらゆるコンテンツが機器101内に保持されていることを想定しているので基本的にはコンテンツ管理DB208にあらゆるコンテンツが管理されている。よって、制御内容決定部203Bは、ステップS603にてコンテンツ管理DB208からコンテンツを取得する。 In the present embodiment, since it is assumed that all contents are held in the device 101, basically, all contents are managed in the content management DB 208. Therefore, the control content determination unit 203B acquires content from the content management DB 208 in step S603.
 ただし、上でも記載したが、各コンテンツは、コンテンツ管理DB208に保持されているコンテンツであってもよいし、放送局からネットワーク又は放送電波を介して配信されるコンテンツであってもよい。テーブル1001は、各コンテンツのソースに関しても管理している。例えば、C11~C52は少なくとも数秒以上の連続した映像コンテンツの実態データを持つものであるので、コンテンツ管理DB208に実データが管理されているものがあれば、実データは別のところに保持され、その保持された領域へのアクセスパス情報だけが管理されているパターンも存在し得る。制御内容決定部203Bは、コンテンツがコンテンツ管理DB208に管理されていない場合、ネットワーク経由でコンテンツを取得するように機器101を制御する。また、再生するコンテンツは、写真のような静止画でもよく、制御内容決定部203Bは、機器101のコンテンツDB204Bにて写真のような静止画も管理することができ、映像コンテンツとして取得再生制御することができる。 However, as described above, each content may be a content held in the content management DB 208 or may be a content distributed from a broadcast station via a network or broadcast radio waves. The table 1001 also manages the source of each content. For example, since C11 to C52 have actual data of continuous video content of at least several seconds or more, if there is data managed in the content management DB 208, the actual data is held elsewhere, There may be a pattern in which only access path information to the held area is managed. When the content is not managed by the content management DB 208, the control content determination unit 203B controls the device 101 to acquire the content via the network. Also, the content to be played back may be a still image such as a photograph, and the control content determination unit 203B can manage still images such as a photograph in the content DB 204B of the device 101, and controls acquisition and playback as video content. be able to.
 なお、写真は、ユーザ10が撮影した写真でもよいし、サービス管理者又はクリエータ20が登録した写真でもよく、ユーザ10が機器101内に記録したもの全てを含んでよい。また、「写真」が選択された場合は、複数の写真をスライドショー形式で順次に再生させるように制御することもできるし、クリエータ20が意図した順序又は再生時間を含むプレイリストを細かく管理制御することもできる。また、ユーザ10の状態に応じて、スライドショー再生速度又は再生方法を変更してもよい。また、ユーザ10の状態に応じて再生すべき写真を複数選択して再生するように制御してもよい。 The photograph may be a photograph taken by the user 10, a photograph registered by the service manager or the creator 20, and may include everything recorded by the user 10 in the device 101. When “Photo” is selected, a plurality of photos can be controlled to be sequentially played back in a slide show format, and a playlist including the order or playback time intended by the creator 20 is finely managed and controlled. You can also Further, the slide show playback speed or playback method may be changed according to the state of the user 10. Further, it may be controlled to select and reproduce a plurality of photos to be reproduced according to the state of the user 10.
 なお、テーブル1001の例では、出力するコンテンツとして映像コンテンツと音響コンテンツの組み合わせで管理する例のテーブルで記載したが、管理方法はこれに限られない。例えば、音声のみのコンテンツが含まれていてもよいし、映像コンテンツが必ず音響データを内包してもよい。 In the example of the table 1001, the table is an example of managing the output content by a combination of video content and audio content, but the management method is not limited to this. For example, audio-only content may be included, and video content may necessarily include acoustic data.
 なお、ここでは、各映像音響コンテンツに対する注目ランクを、1を最大として正規化された数値で表現したが、管理方法はこれに限らず、累積加点で整数管理してもよい。また、相互に再生順序の関係性が深いコンテンツ同士をリンクし、Webサイトの相互リンクによる検索性重み付けと同様に、リンクの関係性を重視した管理方法としてもよい。 In addition, although the attention rank with respect to each audiovisual content is represented by a numerical value normalized with 1 being the maximum here, the management method is not limited to this, and integer management may be performed using cumulative addition points. Moreover, it is good also as the management method which attached importance to the relationship of a link similarly to the searchability weighting by the mutual link of a web site by linking contents with a deep relationship of a reproduction order mutually.
 なお、テーブル1001に「許容情報」が管理されているように、各コンテンツの機器における再生出力設定に限らず、機器101の前方のユーザ10の存在、もしくは、ユーザ10の属性又は行動に応じて、出力部202での出力方法を調整又は変更してもよい。 Note that, as “allowable information” is managed in the table 1001, not only the playback output setting of each content device but also the presence of the user 10 in front of the device 101 or the attribute or behavior of the user 10 The output method in the output unit 202 may be adjusted or changed.
 なお、許容情報のうち、正方形の切り出しを例に説明したが、たとえば、16:9の映像コンテンツのうち、正方形に切り出すことの許否に限らず、クリエータ20の意図に反しない範囲での制限有の表現方法として、たとえば、編集不可領域を映像コンテンツの画面領域の中に時系列に対応して設定し、その編集不可領域を保持した上で映像を切り出すことを許容するような編集制御を行うようにしてもよい。 In addition, although the description has been given taking the square cut out as an example of the permissible information, for example, the 16: 9 video content is not limited to whether or not it is allowed to cut out into a square, and there is a limit within a range that does not contradict the intention of the creator 20. As an expression method, for example, an editable area is set in time series in the screen area of the video content, and edit control is performed to allow the video to be cut out while retaining the editable area. You may do it.
 なお、許容情報のうち、クリエータ20が意図する環境設定を例として説明する。C11は「周囲を暗く」と設定しており、機器101の本体の外枠に備わる照明機能、機器101の周囲でネットワークを介して連動可能な照明など、ユーザ10の視聴空間で制御可能なものと連動して周囲を暗くするシステム制御ができるものとする。また、C12は「サイズM以上」と設定しており、機器101の再生画面としてサイズがM以上でなければ、当該映像音響コンテンツC12は再生不可とする。また、C13は「照度明るく」と設定しており、機器101の出力部202のバックライトを通常の設定よりも明るめに設定して再生することにより、当該映像コンテンツの欠点であった原映像が暗い問題をクリエータ20の意図として補填する設定が可能となる。また、C14は「フレーム色:赤」と設定されており、たとえば、機器101の本体の外枠のフレームが物理的に赤であるもののみで再生できるようにする、または、外装フレームP101がLED又はOLEDなど色又は模様を発光により表現できる素材である場合、当該コンテンツと連動してフレーム色を出力部202とは独立に「赤」に変化させて当該コンテンツを出力部202にて再生するよう制御することもできる。また、C15は「宿泊施設不向き」と設定しており、機器101が設置された場所が宿泊施設であれば、当該映像音響コンテンツは不向きなものとして再生候補から外すよう制御できる。 In addition, the environment setting which the creator 20 intends among permissible information is demonstrated as an example. C11 is set to “darken the surroundings” and can be controlled in the viewing space of the user 10 such as the lighting function provided on the outer frame of the main body of the device 101 and the lighting that can be linked around the device 101 via the network System control that darkens the surroundings in conjunction with the system. Also, C12 is set to “size M or more”, and if the size of the playback screen of the device 101 is not M or more, the audiovisual content C12 cannot be played back. Also, C13 is set to “bright illuminance”, and when the backlight of the output unit 202 of the device 101 is set to be brighter than the normal setting and played back, the original video that has been a drawback of the video content is displayed. Setting that compensates for the dark problem as the intention of the creator 20 becomes possible. Also, C14 is set to “frame color: red”. For example, the frame of the outer frame of the main body of the device 101 can be played back only with a physically red frame, or the exterior frame P101 is an LED. Alternatively, in the case of a material that can express a color or a pattern by light emission such as OLED, the frame color is changed to “red” independently of the output unit 202 in conjunction with the content, and the content is reproduced by the output unit 202. It can also be controlled. Further, C15 is set as “unsuitable for accommodation facility”, and if the place where the device 101 is installed is an accommodation facility, the audiovisual content can be controlled to be unsuitable and excluded from reproduction candidates.
 図21は、本実施の形態における音声管理テーブルであるテーブル1101の説明図である。図21に示されるテーブル1101は、音声のカテゴリに応じた出力方法が紐付けられたテーブルを示す。テーブル1101も、コンテンツ管理部204に管理されている。 FIG. 21 is an explanatory diagram of a table 1101 that is a voice management table in the present embodiment. A table 1101 shown in FIG. 21 shows a table in which output methods corresponding to audio categories are linked. The table 1101 is also managed by the content management unit 204.
 テーブル1101では各音源種別に応じたカテゴリに応じて、音楽ID(Music ID)、その音源の概要を示すテキストおよびキーワード、対応するファイルへのパス情報が管理されている。カテゴリは、例えば、品格、伝統又は好奇心などがある。 In the table 1101, music ID (Music ID), text and keywords indicating the outline of the sound source, and path information to the corresponding file are managed according to the category corresponding to each sound source type. Categories include, for example, dignity, tradition, or curiosity.
 例えば、テーブル1001における「品格」が設定されたコンテンツが選択された場合、制御内容決定部203Bは、テーブル1101を参照し、品格に最適な音源候補からキーワードでよりマッチングが取れる音源を選定出力する。 For example, when a content in which “quality” is set in the table 1001 is selected, the control content determination unit 203B refers to the table 1101 and selects and outputs a sound source that can be matched with a keyword from sound source candidates that are optimal for the quality. .
 かかる構成によれば、機器101は、ユーザ10の現在の状態に基づき、提示するコンテンツを自動的に制御できる。例えば、機器101は、機器101が壁に立て掛けられた状態を検知して、上部スピーカ205より下部スピーカ206の音量を自動で大きく調整することで、ユーザ10の視聴環境を最適化することができる。また、機器101は、ユーザ10の目配せを分析し、ユーザ10の注目度合いに応じて映像音響コンテンツを選定切り替えることができる。また、機器101は、ユーザ10の視聴状態をログとして管理し、クリエータ20にフィードバックすることで当該映像音響コンテンツの改良または新規に作成する映像音響コンテンツの制作につなげることができ、ユーザ10にとっての快適な映像音響コンテンツの再生環境およびクリエータ20による継続的な映像音響コンテンツの制作環境を操作なく手間なく提供することができる。 With this configuration, the device 101 can automatically control the content to be presented based on the current state of the user 10. For example, the device 101 can optimize the viewing environment of the user 10 by detecting the state where the device 101 is leaned against a wall and automatically adjusting the volume of the lower speaker 206 to be larger than that of the upper speaker 205. . Further, the device 101 can analyze the user's attention and select and switch the audiovisual content according to the degree of attention of the user 10. Also, the device 101 manages the viewing state of the user 10 as a log, and can feed back to the creator 20 to improve the video / audio content or produce a new video / audio content. It is possible to provide a comfortable audiovisual content reproduction environment and a continuous audiovisual content production environment by the creator 20 without any operation and trouble.
 なお、同時に再生させる映像コンテンツと音響コンテンツとの組み合わせの決定には、さまざまな指標を用いることもできる。この指標には、例えば、コンテンツに紐付けられる指標であって、連続値により表現される指標を採用し得る。より具体的には、映像コンテンツ及び音響コンテンツそれぞれに対してユーザ10が向ける注意の度合いを示す推定指標を採用し得る。この場合、ユーザ10が指標の範囲を指定し、ユーザ10により指定された範囲に含まれる指標が紐付けられた映像コンテンツと音響コンテンツとをともに再生することができる。このようにすることで、ユーザ10が同じ程度の注意を向けると推定される映像コンテンツと音響コンテンツとをともに再生させることができる。 It should be noted that various indicators can be used to determine the combination of video content and audio content to be played simultaneously. As this index, for example, an index associated with content and an index expressed by a continuous value can be adopted. More specifically, an estimation index indicating the degree of attention that the user 10 is directed to each of the video content and the audio content may be employed. In this case, the user 10 can specify the index range, and both the video content and the audio content associated with the index included in the range specified by the user 10 can be reproduced. By doing in this way, it is possible to reproduce both the video content and the audio content that are estimated that the user 10 pays the same attention.
 なお、本実施の形態の一例では、ユーザ10の状態又は行動を推定して当該状態又は行動に合わせて機器の制御を行う方法を説明したが、図22Aに示すように予め機器の制御順序を設定しておいて、ユーザ10の行動を変更するように促すようにしてもよい。図22Aには、ユーザ10が存在することが分かっている状態で、予めユーザ10が15分おきの行動を促すためのターゲット行動を設定して作成したテーブル1201を示す。テーブル1201に示すように、ユーザ10が予めターゲット行動を設定しておくと、制御内容決定部203Bがコンテンツを決定してテーブル1201を完成させ、テーブル1201に従ってコンテンツを再生するように出力部202を制御する。これにより、ターゲット行動をユーザ10が行うように、コンテンツの再生によりユーザ10を誘導することができる。例えば、テーブル1201が設定されている場合、12:00にはユーザ10が再入室することが自明であれば、再入室時に、アップテンポで何かを作り出したくなる映像と音楽として、C15のコンテンツが再生される。これにより、例えば、親が外出中に、自動再生される映像音響コンテンツによって、子供の行動を誘導したりコントロールしたりすることができる。 In the example of the present embodiment, the method of estimating the state or action of the user 10 and controlling the device in accordance with the state or action has been described. However, as shown in FIG. It may be set and prompted to change the action of the user 10. FIG. 22A shows a table 1201 created by setting in advance a target action for the user 10 to promote an action every 15 minutes in a state where the user 10 is known to exist. As shown in the table 1201, when the user 10 sets the target action in advance, the control content determination unit 203B determines the content, completes the table 1201, and sets the output unit 202 to reproduce the content according to the table 1201. Control. Thereby, the user 10 can be guided by the reproduction of the content so that the user 10 performs the target action. For example, if the table 1201 is set, if it is obvious that the user 10 will re-enter the room at 12:00, the content of C15 will be used as video and music that would make something up-tempo at the time of re-entry. Is played. Thereby, for example, a child's action can be induced and controlled by audio-visual content that is automatically reproduced while the parent is out.
 なお、15分ごとのターゲット行動を設定した例を説明したがこれに限られず、ユーザ10が任意の所定時間ごとに設定すればよい。また、ユーザ10が予め所定時間ごとの再生コンテンツを直接設定してもよい。また、これらのターゲット行動に関して推奨パターンが複数の機器101のコンテンツ管理部204に保持されていてもよい。ここで、推奨パターンとは、教育優先パターン、運動優先パターン、又は、睡眠優先パターンなどを含む。これにより、ユーザ10は、外出時に機器101からレコメンドされる複数の推奨パターンから一つを選択しておくだけで、映像音響コンテンツによりユーザ10の行動を促進又はコントロールすることができる。 In addition, although the example which set the target action for every 15 minutes was demonstrated, it is not restricted to this, The user 10 should just set for every arbitrary predetermined time. Further, the user 10 may directly set the playback content every predetermined time in advance. Moreover, the recommended pattern regarding these target actions may be held in the content management unit 204 of the plurality of devices 101. Here, the recommended pattern includes an education priority pattern, an exercise priority pattern, or a sleep priority pattern. Thereby, the user 10 can promote or control the action of the user 10 by the audiovisual content only by selecting one from a plurality of recommended patterns recommended by the device 101 when going out.
 すなわち、機器101の制御内容決定部203Bは、内部に制御内容の順序を時系列に管理するスケジュール機能を有し、スケジュールは、ユーザ10に対して指示したいターゲット行動に応じて出力を規定し、時系列に記載された規定時刻に当該ターゲット行動に沿った所定の映像または音声を出力する。かかる構成によれば、スケジュールに規定された順序で所定の映像または音声を出力できるため、例えば、親が不在の際でも、勉強、運動又は睡眠を促す映像音響コンテンツを再生でき、生活リズムを形成することで、ユーザ10に対して想定する生活パターンへの誘導ができる。 That is, the control content determination unit 203B of the device 101 has a schedule function for managing the order of the control content in time series, and the schedule defines the output according to the target action that the user 10 wants to instruct, A predetermined video or audio along the target action is output at a specified time described in time series. According to such a configuration, predetermined video or audio can be output in the order stipulated in the schedule. For example, even when a parent is absent, audiovisual content that encourages study, exercise, or sleep can be played, and a life rhythm is formed. By doing so, it is possible to guide the user 10 to an assumed life pattern.
 また、本実施の形態では、視聴環境推定部203Aが推定した、その時々の状態に対応する制御内容を制御内容決定部203Bが決定するように制御したが、これに限られない。例えば、制御内容決定部203Bは、視聴環境推定部203Aが推定した状態が変化したタイミングに応じて最適な制御内容を決定し出力部202を制御するようにしてもよい。 In the present embodiment, control is performed such that the control content determination unit 203B determines the control content corresponding to the current state estimated by the viewing environment estimation unit 203A, but is not limited thereto. For example, the control content determination unit 203B may control the output unit 202 by determining optimal control content according to the timing at which the state estimated by the viewing environment estimation unit 203A changes.
 なお、環境情報は、機器101の設置態様に関する情報として、機器101が他の機器101とともに並べて設置されているか否かに関する情報である並置情報を含んでいてもよい。また、上記所定の対応付けは、機器101の並置情報と、当該並置情報に示される設置の態様で設置された機器101によるコンテンツの提示に関する制御との対応付けを含んでいてもよい。そして、コンテンツの提示に関する制御では、機器101の並置情報に対応付けられた、コンテンツの提示に関する制御を行ってもよい。 Note that the environment information may include juxtaposition information that is information regarding whether or not the device 101 is installed side by side with other devices 101 as information regarding the installation mode of the device 101. The predetermined association may include association between juxtaposition information of the device 101 and control related to presentation of content by the device 101 installed in the installation mode indicated by the juxtaposition information. And in control regarding presentation of content, you may perform control regarding presentation of content matched with the juxtaposition information of the apparatus 101. FIG.
 なお、機器101が、ユーザ10が機器101から見ていずれの方向に存在するかを特定した場合には、上部スピーカ205及び下部スピーカ206の出力音量を制御するようにしてもよい。このことについて以下で説明する。 In addition, when the device 101 specifies in which direction the user 10 is seen from the device 101, the output volume of the upper speaker 205 and the lower speaker 206 may be controlled. This will be described below.
 図22Bは、本実施の形態における機器101の前方にユーザ10が存在する状態の説明図である。図22Cは、本実施の形態における機器101から見たユーザ10が存在する方向と、スピーカの出力音量との関係を示す説明図である。 FIG. 22B is an explanatory diagram of a state in which the user 10 exists in front of the device 101 in the present embodiment. FIG. 22C is an explanatory diagram showing the relationship between the direction in which the user 10 is seen from the device 101 and the output volume of the speaker according to the present embodiment.
 図22Bは、機器101の前方に1人のユーザ10がいる状況を、機器101の上方から見た場合を示している。ここで、機器101の出力部202つまり表示パネルP122の法線と、出力部202の中心からユーザ10に向かう線とのなす角の角度をθと定義する。また、機器101から見て上記法線より右側に人がいる場合にθを正とし、左側にいる場合にθを負とする。また、左側の上部スピーカ205の出力音量をH1とし、右側の上部スピーカ205の出力音量をH2とし、左側の下部スピーカ206の出力音量をL1とし、右側の下部スピーカ206の出力音量をL2とする。 FIG. 22B shows a case where one user 10 is in front of the device 101 as viewed from above the device 101. Here, the angle between the normal line of the output unit 202 of the device 101, that is, the display panel P122, and the line from the center of the output unit 202 toward the user 10 is defined as θ. Also, θ is positive when a person is on the right side of the normal line as viewed from the device 101, and θ is negative when the person is on the left side. Also, the output volume of the left upper speaker 205 is H1, the output volume of the right upper speaker 205 is H2, the output volume of the left lower speaker 206 is L1, and the output volume of the right lower speaker 206 is L2. .
 このとき、機器101は、ユーザ10が機器101から見ていずれの方向の範囲内に存在するかに応じて、各スピーカの出力音量を図22Cのように制御する。図22Cに示される「5」などの数値は、出力音量の相対的な関係を示す数値である。 At this time, the device 101 controls the output volume of each speaker as shown in FIG. 22C according to the direction in which the user 10 is seen from the device 101. A numerical value such as “5” shown in FIG. 22C is a numerical value indicating the relative relationship of the output volume.
 例えば、機器101の正面(-30度<θ<30度)にユーザ10が存在する場合、すべてのスピーカの出力音量を5とし、同じにする。ユーザ10が、機器101の右側に存在する場合、右側の上部スピーカ205の出力音量を7に上げ、右側の下部スピーカ206の出力音量を6に上げる。また、左側の上部スピーカ205の出力音量を5で維持し、左側の下部スピーカ206の出力音量を4に下げる。このように、機器101は、機器101から見たユーザ10の方向に応じてユーザ10に近いスピーカの出力音量を大きくし、また、ユーザから遠いスピーカの出力音量を小さく又は維持する。例えば、コンテンツの種類によって、空間を包み込むようなコンテンツの場合には、上部スピーカ205の出力音量を大きくしてもよい。また、低音を響かせるようなコンテンツの場合には、下部スピーカ206の出力音量を大きくしてもよい。このように、機器101は、周囲の環境に応じたコンテンツの提示の制御を行う。 For example, when the user 10 is present in front of the device 101 (−30 degrees <θ <30 degrees), the output volume of all speakers is set to 5 and the same. When the user 10 is present on the right side of the device 101, the output volume of the right upper speaker 205 is increased to 7, and the output volume of the lower speaker 206 on the right is increased to 6. Further, the output volume of the left upper speaker 205 is maintained at 5, and the output volume of the left lower speaker 206 is lowered to 4. As described above, the device 101 increases the output volume of the speaker close to the user 10 according to the direction of the user 10 viewed from the device 101, and decreases or maintains the output volume of the speaker far from the user. For example, in the case of content that encloses a space depending on the type of content, the output volume of the upper speaker 205 may be increased. In addition, in the case of content that sounds a low tone, the output volume of the lower speaker 206 may be increased. As described above, the device 101 controls the presentation of content according to the surrounding environment.
 また、機器101の前方に1人又は複数のユーザ10が存在する場合には、以下のようにスピーカの出力音量を制御することもできる。 If there is one or more users 10 in front of the device 101, the output volume of the speaker can be controlled as follows.
 図22Dは、本実施の形態における機器101の前方に複数のユーザ10が存在する状態の説明図である。図22Dは、機器101の前方に複数のユーザ10がいる状況を、機器101の上方から見た場合を示している。 FIG. 22D is an explanatory diagram showing a state in which a plurality of users 10 exist in front of the device 101 in the present embodiment. FIG. 22D illustrates a case where a plurality of users 10 are present in front of the device 101 as viewed from above the device 101.
 図22Eは、本実施の形態における、機器101の前方に存在するユーザ10の人数とスピーカの出力音量との関係を示す説明図である。ここで、機器101の前方に存在するユーザ10が1人だけいるときの機器101の動作モードをシンプルモードともいい、ユーザ10が複数いるときの機器101の動作モードをパーティーモードともいう。 FIG. 22E is an explanatory diagram showing the relationship between the number of users 10 existing in front of the device 101 and the output volume of the speaker in the present embodiment. Here, the operation mode of the device 101 when there is only one user 10 existing in front of the device 101 is also referred to as a simple mode, and the operation mode of the device 101 when there are a plurality of users 10 is also referred to as a party mode.
 機器101の前方に1人のユーザ10だけが存在している場合であって、かつ、その1人のユーザ10の視線が機器101に向けられている場合には、機器101は、図22Cで示した各スピーカの出力音量の制御をする。 When only one user 10 exists in front of the device 101 and the line of sight of the one user 10 is directed toward the device 101, the device 101 is shown in FIG. 22C. The output volume of each speaker shown is controlled.
 また、機器101の前方に1人のユーザ10だけが存在している場合であって、かつ、その1人のユーザ10の視線が機器101に向けられていない場合には、機器101は、音量を一定時間ごとに下げる制御をする。 When only one user 10 exists in front of the device 101 and the line of sight of the one user 10 is not directed toward the device 101, the device 101 Control is performed to lower the value at regular intervals.
 また、機器101の前方に複数のユーザ10が存在している場合であって、かつ、その複数のユーザ10の視線が機器101に向けられている場合には、機器101は、各スピーカの出力音量の制御をする。例えば、上部スピーカ205の音量を6とし、下部スピーカ206の音量を7とする。このようにすることで、機器101の前方の複数のユーザ10が存在する場合でも、各人に音量を届きやすくすることができる。 In addition, when there are a plurality of users 10 in front of the device 101 and the line of sight of the plurality of users 10 is directed to the device 101, the device 101 outputs each speaker. Control the volume. For example, the volume of the upper speaker 205 is 6 and the volume of the lower speaker 206 is 7. By doing in this way, even when there are a plurality of users 10 in front of the device 101, it is possible to easily reach the volume of each person.
 また、機器101の前方に複数のユーザ10が存在している場合であって、かつ、その複数のユーザ10の視線が機器101に向けられていない場合には、機器101は、音量を一定時間ごとに下げる制御をする。 Further, when there are a plurality of users 10 in front of the device 101 and the line of sight of the plurality of users 10 is not directed to the device 101, the device 101 sets the volume to a certain time. Control to lower each time.
 このように、機器101は、周囲の環境に応じたコンテンツの提示の制御を行う。 In this way, the device 101 controls the presentation of content according to the surrounding environment.
 さらに、機器101がマイクであるセンサ201Fにより機器101の周囲の音を収音する場合には、収音した音量に応じてスピーカの出力音量を制御してもよい。 Further, when the device 101 collects sound around the device 101 by the sensor 201F, which is a microphone, the output volume of the speaker may be controlled according to the collected sound volume.
 図22Fは、本実施の形態における収音音量の説明図である。図22Fは、機器101の前方に複数のユーザ10が存在しているときに、マイクであるセンサ201Fにより機器101の周囲の音を収音している状況を示している。 FIG. 22F is an explanatory diagram of sound collection volume in the present embodiment. FIG. 22F illustrates a situation in which sound around the device 101 is collected by the sensor 201 </ b> F that is a microphone when a plurality of users 10 exist in front of the device 101.
 図22Gは、本実施の形態における、収音音量とスピーカの出力音量との関係を示す説明図である。 FIG. 22G is an explanatory diagram showing the relationship between the sound collection volume and the speaker output volume in the present embodiment.
 収音音量が比較的高い又は中程度であるときには、各スピーカの出力音量を5とし、出力部202である表示パネルP122の輝度を徐々に中程度に変化させる。 When the sound collection volume is relatively high or medium, the output volume of each speaker is set to 5, and the luminance of the display panel P122 as the output unit 202 is gradually changed to medium.
 また、収音音量が中程度又は比較的低いときには、各スピーカの出力音量を徐々に2に変化させ、出力部202である表示パネルP122の輝度を徐々に低い状態に変化させる。 When the sound collection volume is medium or relatively low, the output volume of each speaker is gradually changed to 2, and the luminance of the display panel P122 as the output unit 202 is gradually changed to a low state.
 また、収音音量が低いときには、各スピーカの出力音量を、一定時間経過後に徐々に0に変化させ、出力部202である表示パネルP122の電源をOFFとする。 Also, when the sound collection volume is low, the output volume of each speaker is gradually changed to 0 after a predetermined time has elapsed, and the power of the display panel P122 which is the output unit 202 is turned off.
 このように、機器101は、周囲の人数と、マイクの収音音量とに、複合的に応じたコンテンツの提示の制御を行う。このように、機器101は、周囲の環境に応じたコンテンツの提示の制御をより適切に行うことができる。 In this way, the device 101 controls the presentation of content in a complex manner according to the number of people around and the sound collection volume of the microphone. In this way, the device 101 can more appropriately control the presentation of content according to the surrounding environment.
 なお、上記のとおり、機器101は、コンテンツを選択し、選択したコンテンツを提示する。ここで、コンテンツそのものを修正することなく、コンテンツを選択することによって、電子機器の周囲の環境に応じたコンテンツの提示の制御を行うものである。そのため、過去に選択したことがある映像データに対して、過去に選択したときとは異なる音楽データを組み合わせて提示することもある。 Note that, as described above, the device 101 selects content and presents the selected content. Here, the content presentation is controlled in accordance with the environment around the electronic device by selecting the content without modifying the content itself. Therefore, music data different from that selected in the past may be presented in combination with video data that has been selected in the past.
 (実施の形態1の変形例)
 図23は、本変形例に係る機器101およびクラウドサーバ111の構成を示すブロック図である。図23は、実施の形態1における制御処理部203の機能のうちの一部を、クラウドサーバ111、サーバ121、もしくはホームゲートウェイ102などの外部装置にて処理する構成における各装置の構成図を示す。本変形例では、機器101がクラウドサーバ111と情報をやり取りしながら処理を行う。なお、クラウドサーバ111の代わりに、サーバ121又はホームゲートウェイ102を用いても同様の説明が成立する。
(Modification of Embodiment 1)
FIG. 23 is a block diagram illustrating configurations of the device 101 and the cloud server 111 according to the present modification. FIG. 23 is a configuration diagram of each device in a configuration in which a part of the functions of the control processing unit 203 according to the first embodiment is processed by an external device such as the cloud server 111, the server 121, or the home gateway 102. . In this modification, the device 101 performs processing while exchanging information with the cloud server 111. It should be noted that the same description can be established by using the server 121 or the home gateway 102 instead of the cloud server 111.
 以下、実施の形態1に示した構成図と異なる点を中心に説明する。また、実施の形態1に示した構成と同じ構成には、同じ符号を付け説明を省略する。 Hereinafter, the description will focus on the points different from the configuration diagram shown in the first embodiment. The same components as those described in Embodiment 1 are denoted by the same reference numerals and description thereof is omitted.
 図23の機器101において、図3の機器101と異なる点は、制御処理部1301が視聴環境推定部203Aを備えていない点と、情報送受信部1302を備えている点とである。 23 differs from the device 101 in FIG. 3 in that the control processing unit 1301 does not include the viewing environment estimation unit 203A and includes the information transmission / reception unit 1302.
 情報送受信部1302は、ネットワークを介して、クラウドサーバ111と情報を送受信するための構成であり、本変形例においては必須の構成である。情報送受信部1302は、一般的な通信モジュールなどを採用すればよく、その仕様は特に限定しない。また、情報を送受信するための通信方式等に関しても特に限定しない。 The information transmission / reception unit 1302 is a configuration for transmitting / receiving information to / from the cloud server 111 via a network, and is an essential configuration in the present modification. The information transmission / reception unit 1302 may adopt a general communication module or the like, and its specification is not particularly limited. Further, there is no particular limitation on a communication method for transmitting / receiving information.
 クラウドサーバ111は、制御処理部1303と、情報送受信部1304と、コンテンツ管理部1305とを備える。 The cloud server 111 includes a control processing unit 1303, an information transmission / reception unit 1304, and a content management unit 1305.
 制御処理部1303は、視聴環境推定部1303Aを含む。視聴環境推定部1303Aの動作は、実施の形態1にて説明した動作と同様である。 The control processing unit 1303 includes a viewing environment estimation unit 1303A. The operation of the viewing environment estimation unit 1303A is the same as the operation described in Embodiment 1.
 情報送受信部1304は、ネットワークを介して、機器101と情報を送受信する構成である。 The information transmission / reception unit 1304 is configured to transmit / receive information to / from the device 101 via a network.
 コンテンツ管理部1305は、視聴環境蓄積DB204Aと、コンテンツDB204Bとを含む。視聴環境蓄積DB204Aと、コンテンツDB204Bとの基本的な機能、並びに、記録及び管理するデータ等は、実施の形態1で説明したとおりである。 The content management unit 1305 includes a viewing environment accumulation DB 204A and a content DB 204B. The basic functions of the viewing environment accumulation DB 204A and the content DB 204B, the data to be recorded and managed, and the like are as described in the first embodiment.
 本変形例における各装置及び各構成の動作又は処理の流れは、実施の形態1にて図4~図12Cを用いて説明した動作又は処理の流れと同様である。すなわち本変形例では、機器101の情報送受信部1302と、クラウドサーバ111の情報送受信部1304とによって情報を適宜送受信することで、基本的には図4に示すとおりの順に処理をしていく。よって実施の形態1と同様の作用効果が本変形例においても発揮される。 The operation or process flow of each device and each component in the present modification is the same as the operation or process flow described with reference to FIGS. 4 to 12C in the first embodiment. That is, in the present modification, information is appropriately transmitted and received by the information transmission / reception unit 1302 of the device 101 and the information transmission / reception unit 1304 of the cloud server 111, and processing is basically performed in the order shown in FIG. Therefore, the same function and effect as in the first embodiment are also exhibited in this modification.
 実施の形態1と変形例とで主に異なる点は、実施の形態1における視聴環境推定部203Aをクラウドサーバ111が視聴環境推定部1303Aとして備えていること、及び、基本な情報の蓄積をクラウドサーバ111のコンテンツ管理部1305が行う点である。これにより、機器101側で行う処理を削減できるので、機器101側に高機能なプロセッサを搭載する必要がない。また、機器101側で各テーブル又はコンテンツを記録及び管理しておく必要がないので、機器101側の記録容量を削減できる。すなわち機器101の処理能力が低い場合であっても、ユーザ10の状態等を推定した最適な機器制御が実行できる。 The main difference between the first embodiment and the modification is that the cloud server 111 includes the viewing environment estimation unit 203A in the first embodiment as the viewing environment estimation unit 1303A, and basic information storage is performed in the cloud. This is a point performed by the content management unit 1305 of the server 111. As a result, processing performed on the device 101 side can be reduced, so that it is not necessary to mount a high-performance processor on the device 101 side. Further, since it is not necessary to record and manage each table or content on the device 101 side, the recording capacity on the device 101 side can be reduced. That is, even when the processing capability of the device 101 is low, optimal device control that estimates the state of the user 10 and the like can be performed.
 さらに、クラウドサーバ111が機器101からのログ情報を取得することができるので、更なる情報解析、又は、大量の情報を利用した学習、情報の活用が期待できる。さらにはクラウドサーバ111にて他のユーザ10が保持している機器から取得した情報を併せて解析することで新たな価値あるサービスの提供が可能となる。 Furthermore, since the cloud server 111 can acquire log information from the device 101, further information analysis, learning using a large amount of information, and utilization of information can be expected. Furthermore, it is possible to provide a new valuable service by analyzing together the information acquired from devices held by other users 10 in the cloud server 111.
 また、本変形例においても、機器101およびクラウドサーバ111は、上記の各構成以外の構成を備えていてもよい。 Also in this modification, the device 101 and the cloud server 111 may have a configuration other than the above-described configurations.
 (実施の形態2)
 [各機器の構成]
 図24には、実施の形態2における機器101c、機器101d、機器101e、クラウドサーバ111の構成を示す。以下各機器の構成について実施の形態1および実施の形態1の変形例と同様の構成に関しては同様の符号を付して、説明する。また実施の形態1および実施の形態1の変形例と同様の構成に関しては一部説明を省略する。
(Embodiment 2)
[Configuration of each device]
FIG. 24 shows configurations of the device 101c, the device 101d, the device 101e, and the cloud server 111 according to the second embodiment. The configuration of each device will be described below with the same reference numerals for the same configurations as those of the first embodiment and the modification of the first embodiment. A part of the description of the configuration similar to that of the first embodiment and the modification of the first embodiment is omitted.
 なお、実施の形態1の変形例と同様、クラウドサーバ111の代わりに、サーバ121又はホームゲートウェイ102を用いても同様の説明が成立する。 It should be noted that, similarly to the modification of the first embodiment, the same explanation can be realized by using the server 121 or the home gateway 102 instead of the cloud server 111.
 機器101cは、センサ201cと、情報送受信部1302cとを備える。これらの構成の基本的な機能は、それぞれ、図23にて説明したセンサ201と、情報送受信部1302と同様である。ここでは、機器101cとしては、いかなる機器を用いてもよい。実施の形態1と同様に映像音響コンテンツを再生できる電子機器でもよいし、センサおよび情報送受信部のみを備えた専用端末、又は、ユーザ10が身につける端末、いわゆるウェアラブル端末でもよい。なお、機器101cとしてウェアラブル端末を用いる場合、センサ201cは、活動量計、歩数計、血圧計、心拍計、発汗計測又は脳波計測などの生体情報を取得するセンサであってもよい。ここで、生体情報は、バイタル情報、行動情報、ストレス情報などを含む。 The device 101c includes a sensor 201c and an information transmission / reception unit 1302c. The basic functions of these configurations are the same as those of the sensor 201 and the information transmitting / receiving unit 1302 described with reference to FIG. Here, any device may be used as the device 101c. Similar to the first embodiment, it may be an electronic device capable of reproducing audiovisual content, or a dedicated terminal having only a sensor and an information transmission / reception unit, or a terminal worn by the user 10, a so-called wearable terminal. When a wearable terminal is used as the device 101c, the sensor 201c may be a sensor that acquires biological information such as an activity meter, a pedometer, a sphygmomanometer, a heart rate monitor, a sweat measurement, or an electroencephalogram measurement. Here, the biological information includes vital information, behavior information, stress information, and the like.
 また、うなり又は鳴き声などの音声を直接的または間接的に取得する収音マイクなどであってもよい。また、機器101cは、図示していないその他の構成を備えていてもよい。 Also, a sound collecting microphone that directly or indirectly acquires sound such as roaring or crying may be used. In addition, the device 101c may have other configurations not shown.
 機器101dは、出力部202dと、情報送受信部1302dとを備える。本実施の形態においては、例えば機器101dは、センサを搭載しないディスプレイ若しくはLED(Light Emitting Diode)の通知のみを行う機器、又は、音声だけを出力するスピーカなどを想定する。ここで、上記ディスプレイ、LED又はスピーカ等が出力部202dに相当する。また、情報送受信部1302dは、図23にて説明した情報送受信部1302と同様である。なお、機器101dは、図示していないその他の構成を備えていてもよい。 The device 101d includes an output unit 202d and an information transmission / reception unit 1302d. In the present embodiment, for example, the device 101d is assumed to be a display that does not include a sensor, a device that only performs LED (Light Emitting Diode) notification, or a speaker that outputs only sound. Here, the display, LED, speaker, or the like corresponds to the output unit 202d. The information transmitting / receiving unit 1302d is the same as the information transmitting / receiving unit 1302 described in FIG. Note that the device 101d may have other configurations not shown.
 機器101eは、入出力部202eと、情報送受信部1302eとを備える。本実施の形態においては、例えば機器101eとして操作入力を可能とする操作画面(GUI:Graphcal User Interface)を備える電子機器を想定する。情報送受信部1302eは、図13にて説明した情報送受信部1302と同様である。なお、機器101eは、図示していないその他の構成を備えていてもよい。 The device 101e includes an input / output unit 202e and an information transmission / reception unit 1302e. In the present embodiment, for example, an electronic device including an operation screen (GUI: Graphic User Interface) that allows an operation input is assumed as the device 101e. The information transmission / reception unit 1302e is the same as the information transmission / reception unit 1302 described in FIG. Note that the device 101e may have other configurations not shown.
 クラウドサーバ111は、制御処理部1401と、情報送受信部1304と、コンテンツ管理部1404とを備える。 The cloud server 111 includes a control processing unit 1401, an information transmission / reception unit 1304, and a content management unit 1404.
 制御処理部1401は、実施の形態1で説明した機器101aが備える制御処理部203と基本的には同様であり、視聴環境推定部1402、制御内容決定部1403を含む。視聴環境推定部1402、制御内容決定部1403の具体的なユーザ状態推定方法、制御内容の決定方法に関しては後述する。 The control processing unit 1401 is basically the same as the control processing unit 203 provided in the device 101a described in the first embodiment, and includes a viewing environment estimation unit 1402 and a control content determination unit 1403. A specific user state estimation method and control content determination method of the viewing environment estimation unit 1402 and the control content determination unit 1403 will be described later.
 情報送受信部1304は、図23で説明した構成と同様であるので説明を省略する。 The information transmitting / receiving unit 1304 has the same configuration as that described in FIG.
 コンテンツ管理部1404は、視聴環境蓄積DB204Aと、コンテンツ管理DB208と、嗜好傾向DB1405を含む。視聴環境蓄積DB204A、コンテンツ管理DB208に関しては実施の形態1で説明したものと同様なので説明を省略する。嗜好傾向DB1405が管理する情報に関しては後述する。 The content management unit 1404 includes a viewing environment accumulation DB 204A, a content management DB 208, and a preference tendency DB 1405. Since the viewing environment storage DB 204A and the content management DB 208 are the same as those described in the first embodiment, description thereof will be omitted. Information managed by the preference tendency DB 1405 will be described later.
 [各機器の動作、処理の流れ]
 図25には、本実施の形態における各機器の動作及び処理の流れを示すシーケンス図である。以下、図10に示した実施の形態1のフローチャートと異なる点を中心に説明していく。
[Operation and processing flow of each device]
FIG. 25 is a sequence diagram showing the operation of each device and the flow of processing in the present embodiment. The following description will focus on differences from the flowchart of the first embodiment shown in FIG.
 ステップS1501にて、機器101cのセンサ201cが空間内の状態を検出する。このステップS1501は、図10に示すステップS401と基本的には同じである。ただし、上述したようにセンサ201cが、ユーザ10が身につける端末の生体センサである場合、取得する情報は、空間内の二次元画像ではなく、生体センサが検出した生体情報である。 In step S1501, the sensor 201c of the device 101c detects a state in the space. Step S1501 is basically the same as step S401 shown in FIG. However, when the sensor 201c is a biosensor of a terminal worn by the user 10 as described above, the information to be acquired is not a two-dimensional image in space but biometric information detected by the biosensor.
 ステップS1502にて、機器101cの情報送受信部1302cは、ステップS1501にて取得した情報をクラウドサーバ111に送信する。クラウドサーバ111の情報送受信部1304は、機器101cから情報を受信する。 In step S1502, the information transmitting / receiving unit 1302c of the device 101c transmits the information acquired in step S1501 to the cloud server 111. The information transmission / reception unit 1304 of the cloud server 111 receives information from the device 101c.
 ここで、ステップS1501にてセンサ201が検出する頻度、又は、ステップS1502にて情報送受信部1302cが情報を送信するタイミングについては特に限定されず、所定の時間間隔で情報を検出、送信すればよい。 Here, the frequency at which the sensor 201 detects in step S1501 or the timing at which the information transmitting / receiving unit 1302c transmits information in step S1502 is not particularly limited, and information may be detected and transmitted at predetermined time intervals. .
 ステップS1503にて、クラウドサーバ111の制御処理部1401の視聴環境推定部1402は、受信した情報を基に空間内の状態およびユーザ10の状態を推定する。ここで、センサ201が撮像装置により二次元画像を検出している場合、実施の形態1と同様の方法で(例えば図11等を参照)、空間内のユーザ10の有無、ユーザ10の人数、又は、ユーザ10の状態、向き若しくは行動などを推定する。 In step S1503, the viewing environment estimation unit 1402 of the control processing unit 1401 of the cloud server 111 estimates the state in the space and the state of the user 10 based on the received information. Here, in the case where the sensor 201 detects a two-dimensional image by the imaging device, the presence or absence of the user 10 in the space, the number of users 10, Alternatively, the state, orientation, action, or the like of the user 10 is estimated.
 また、センサ201が、ユーザ10が身につける端末の生体センサ等である場合、取得した生体情報からユーザ10の状態又は感情を推定する。この場合、クラウドサーバ111内でどのユーザ10が身につけている機器101cなのかが管理されていれば、事前に把握しておくことができる。その場合、実施の形態1で説明したようにユーザ10の存否の推定は不要である。また状態又は感情の推定方法は、既知の方法を用いればよく詳細な説明は省略する。また、このとき推定した状態をコンテンツ管理部1404の視聴環境蓄積DB204Aに記録又は蓄積していってもよい。また、センサ201が収音マイクである場合、うなり又は鳴き声などの音声からストレス又は緊張の度合いを推定するようにしてもよい。また、会話の頻度、又は、会話の盛り上がり若しくは盛り下がり、楽器又は声音の特徴把握、楽曲の進行状況、拍手又は指を鳴らすなどユーザ10の行為などを検知して再生する映像音響コンテンツを切り替えるようにしてもよい。 Further, when the sensor 201 is a biometric sensor or the like of a terminal worn by the user 10, the state or emotion of the user 10 is estimated from the acquired biometric information. In this case, if it is managed which user 10 is wearing the device 101c in the cloud server 111, it can be grasped in advance. In this case, as described in the first embodiment, it is not necessary to estimate whether the user 10 exists. As the state or emotion estimation method, a known method may be used and detailed description thereof is omitted. Further, the state estimated at this time may be recorded or stored in the viewing environment storage DB 204A of the content management unit 1404. Further, when the sensor 201 is a sound collecting microphone, the degree of stress or tension may be estimated from a sound such as a beat or cry. Also, the audiovisual content to be played back is switched by detecting the frequency of the conversation, or the excitement or demotion of the conversation, grasping the characteristics of the musical instrument or voice, the progress of the music, the actions of the user 10 such as applause or ringing fingers. It may be.
 ステップS1505にて、クラウドサーバ111の情報送受信部1304は、ステップS1504にて決定した制御内容、つまり制御コマンドを各機器に送信する。ここで、ステップS1505にて情報送受信部1304が制御内容を送信するタイミングは、ステップS1504にて制御内容が決定した都度に遅滞なく送信することが望ましいが、これに限られない。例えば所定の時間間隔ごとに定期的に制御内容を各機器に送信してもよい。 In step S1505, the information transmitting / receiving unit 1304 of the cloud server 111 transmits the control content determined in step S1504, that is, the control command to each device. Here, the timing at which the information transmission / reception unit 1304 transmits the control content in step S1505 is desirably transmitted without delay every time the control content is determined in step S1504, but is not limited thereto. For example, the control content may be periodically transmitted to each device at predetermined time intervals.
 ステップS1506にて、機器101b、101c及び101dは、クラウドサーバ111から送信された制御内容、つまり制御コマンドに従って出力動作を行う。 In step S1506, the devices 101b, 101c, and 101d perform an output operation according to the control content transmitted from the cloud server 111, that is, the control command.
 以上、本実施の形態では、機器101cにて検出した空間の情報もしくはユーザ10の生体情報などから、クラウドサーバ111にてユーザ10の状態を推定し、クラウドサーバ111にて機器101c以外の機器、つまり機器101d及び101eなどを制御する内容を決定し、各機器を制御する。かかる構成によれば、実施の形態1と同様、ユーザ10に煩わしい操作を要することなくユーザ10にとって最適な映像音響コンテンツの再生環境を提供することができる。また、本実施の形態では、クラウドサーバ111にて状態推定又は制御内容の決定に関する処理、情報の蓄積、テーブルの管理を行っている。よって、機器側に処理能力の高いプロセッサ又はメモリ等を搭載する必要がない。また、本実施の形態では複数の機器およびクラウドサーバ間で連携し制御内容を決定している。よって、一つの機器に搭載されているセンサの情報のみから、複数の機器を最適に制御することが可能となり、各機器が各々センサを搭載する必要がない。 As described above, in the present embodiment, the cloud server 111 estimates the state of the user 10 from the spatial information detected by the device 101c or the biological information of the user 10, and the cloud server 111 uses a device other than the device 101c. That is, the contents for controlling the devices 101d and 101e are determined, and each device is controlled. According to such a configuration, as in the first embodiment, it is possible to provide an optimal audiovisual content reproduction environment for the user 10 without requiring a cumbersome operation for the user 10. In the present embodiment, the cloud server 111 performs processing related to state estimation or control content determination, information accumulation, and table management. Therefore, it is not necessary to mount a processor or memory with high processing capability on the device side. In the present embodiment, control contents are determined in cooperation with a plurality of devices and cloud servers. Therefore, it becomes possible to optimally control a plurality of devices only from information on the sensors mounted on one device, and each device does not need to be mounted with a sensor.
 なお、コンテンツ管理部1404に嗜好傾向DB1405を構築し、ユーザ10の状態に応じた制御内容に関する嗜好を学習していってもよい。すなわち、ユーザ10の機器への制御コマンドに関するログ情報を分析することで制御内容決定のためのテーブルを適宜最適なものに更新していく。この場合、センサ201cとして、機器の利用状況をセンシングするものを用いてもよい。例えば、図24の各機器の使用状況をセンシングし、嗜好傾向DB1405に蓄積していく。 It should be noted that a preference tendency DB 1405 may be constructed in the content management unit 1404 to learn the preference regarding the control content according to the state of the user 10. That is, by analyzing the log information related to the control command to the device of the user 10, the table for determining the control content is updated to an optimal one as appropriate. In this case, a sensor that senses the usage status of the device may be used as the sensor 201c. For example, the usage status of each device in FIG. 24 is sensed and accumulated in the preference tendency DB 1405.
 クラウドサーバ111では、膨大な情報つまりビッグデータを管理及び解析することが可能となる。よって、このように嗜好傾向DB1405にて機器のログ情報又はセンシング情報を蓄積しユーザ10もしくはユーザ10の嗜好を学習していくことが可能であるため、実施の形態1に比べてより快適なサービスを提供できる。また、クラウドサーバ111にて他のユーザ10が保持している機器から取得した情報を合わせて解析することで、(a)類似のユーザ10が好む映像音響コンテンツの傾向を用いた再生順又はタイミングの制御パターンを抽出する、(b)映像と音響との相性又は人気のランキングを形成し次回の再生に活用する、(c)映像音響コンテンツを制作するクリエータ20の画面又はコミュニティにフィードバックし、電子機器が置かれている環境又は再生条件を意識した映像又は音響に役立てるなど、新たな価値あるサービスの提供が可能となる。 The cloud server 111 can manage and analyze a huge amount of information, that is, big data. Therefore, since it is possible to accumulate device log information or sensing information in the preference tendency DB 1405 and learn the preference of the user 10 or the user 10, the service is more comfortable than that of the first embodiment. Can provide. Further, by analyzing together information acquired from devices held by other users 10 in the cloud server 111, (a) a playback order or timing using a tendency of audiovisual content preferred by similar users 10 (B) Form a compatibility or popularity ranking between video and audio and use it for the next playback, (c) Feed back to the screen or community of the creator 20 that produces the audiovisual content, It is possible to provide a new and valuable service such as being useful for video or sound in consideration of the environment where the device is placed or the reproduction condition.
 なお、ここでは電子機器を制御するサーバを、ネットワークを介して接続するクラウドサーバ111として説明したが、電子機器を制御する機器制御サーバの構成はこれに限らず、宅内の電子機器と同一のネットワークに接続されたローカルな環境にあるローカルサーバがゲートウエイとしての役割を担ってもよく、また、電子機器そのものに電子機器を制御する機器制御サーバ機能を実装してもよい。 In addition, although the server which controls an electronic device was demonstrated here as the cloud server 111 connected via a network, the structure of the device control server which controls an electronic device is not restricted to this, The same network as the electronic device in a house A local server in a local environment connected to the network may serve as a gateway, and a device control server function for controlling the electronic device may be implemented in the electronic device itself.
 なお、ここでは、制御対象となる電子機器について、スピーカを搭載したディスプレイを例に説明したが、制御対象とする電子機器と、その判定基準および制御内容とはこれに限られない。説明した形状とは異なるが、映像を壁面に投影するプロジェクタ、ユーザ10専用に用意された画面付端末、床に埋め込まれたディスプレイサイネージ、自動走行又は自動飛行を行う移動型のディスプレイなどを制御対象としてもよい。また、空気又はアロマの香りを制御可能な加湿器又は除湿機、窓又は玄関の採光を制御できる、カーテン又はブラインドの電子制御装置を制御対象としてもよい。また、その判定基準は、説明の簡易化のために睡眠状態又は行動状態に映像を出力するか否かという観点で説明したが、制御の判定基準はこれに限らず、ユーザ10の行動履歴の状態、泣き声から推測される欲求、ユーザ10の振動状態から推測するストレス反応などの大きさを判定基準としてもよい。なお、ユーザ10の行動履歴の状態には、例えば、いつもに比べて今日はあまり動いていない、又は、いつもに比べて今日は動きが激しい、などの情報を含む。また、制御内容はひとつの電子機器の画面に対する映像音響出力又は香りの制御、照明の調光オンオフによるユーザ10におけるストレス緩和又は発散につなげてもよい。 Note that, here, the electronic device to be controlled has been described by taking a display equipped with a speaker as an example, but the electronic device to be controlled, its determination criteria, and control contents are not limited thereto. Although it is different from the described shape, it controls projectors that project images on the wall, terminals with screens dedicated to user 10, display signage embedded on the floor, mobile displays that perform automatic driving or automatic flight, etc. It is good. Further, a humidifier or a dehumidifier capable of controlling the scent of air or aroma, or a curtain or blind electronic control device capable of controlling the lighting of a window or an entrance may be set as a control target. In addition, the determination criterion has been described in terms of whether or not an image is output to a sleep state or a behavior state for the sake of simplification. However, the control criterion is not limited to this, and the behavior history of the user 10 is not limited to this. The magnitude of the state, the desire estimated from the cry, the stress response estimated from the vibration state of the user 10 may be used as the determination criterion. The action history state of the user 10 includes, for example, information indicating that the user 10 is not moving much today compared to usual or that the movement is intense today compared to usual. In addition, the control content may be connected to stress relief or divergence in the user 10 by controlling the sound output of video or scent on the screen of one electronic device, and lighting dimming on / off.
 なお、ここではセンサ、具体的にはカメラ、照度計、3軸センサ又は感圧式ボタンなどから得られた現在のデータを解析して、現在のユーザ10の状態を推定することを例に説明したが、制御内容を決定する判定基準に用いる入力データは、現時点での状態推定に限らない。例えば、入力データは、過去の状態から現在の状態に至る状態変化と過去のデータとを比較し、過去のデータと類似の状況において過去に不良状態から良状態に状態を遷移させた実績のある当該ユーザ種別または当該ユーザ固有の嗜好に基づくコンテンツを現在の状態に応じて選別して採用するようにしてもよい。また、選別には、時間帯、天候又は季節、ユーザ10の人数などに応じて制御するようにしてもよい。例えば、突然の夕立又は落雷が予測されるときには、外の様子の変化を映像として採用する、又は、雷などの突然の音に備えて予め小さな音から大きな音へ変化するような映像を採用するようにしてもよい。また、当該ユーザ10が子供であれば安心を促す映像、成人であれば勇敢に狩りに出かけることをイメージさせる映像を採用するなど、採用する映像に変化を与えるものとしてもよい。なお、過去のデータは、ユーザ10自身の家族又は子供の成長記録の実績データでもよいし、同世代の実績値又はその平均値を利用してもよい。さらに、一定時間内に想定した状態に遷移しない場合、又は、不良状態へ遷移してしまった場合に、過去のデータに応じて出力コンテンツの優先度付けを行い、優先度の高いものから順次制御を実行するようにしてもよい。 Here, an example has been described in which current data obtained from a sensor, specifically a camera, a luminometer, a three-axis sensor, or a pressure-sensitive button, is analyzed to estimate the current state of the user 10. However, the input data used for the criterion for determining the control content is not limited to the current state estimation. For example, the input data has a track record of comparing the state change from the past state to the current state with the past data, and transitioning the state from the defective state to the good state in the past in a situation similar to the past data. The content based on the user type or the user-specific preference may be selected and adopted according to the current state. In addition, the selection may be controlled according to the time zone, weather or season, the number of users 10, and the like. For example, when a sudden evening or lightning strike is predicted, a change in the outside appearance is adopted as a video, or a video that changes from a small sound to a loud sound in advance in preparation for a sudden sound such as thunder. You may do it. Moreover, it is good also as what gives a change to the image | video to employ | adopt, such as employ | adopting the image | video which encourages relief if the said user 10 is a child, and the image which makes a hunting go bravely if it is an adult. The past data may be actual data of growth records of the user 10's own family or child, or the actual value of the same generation or an average value thereof may be used. In addition, when the transition to the assumed state is not made within a certain period of time or when the transition to the defective state occurs, the output contents are prioritized according to the past data, and are controlled sequentially from the one with the highest priority. May be executed.
 なお、ここでは電子機器または連携する外部の専用端末が実装するセンサからのインプットを中心に具体的な例を示して説明したが、インプットされるデータはセンサに限らず、例えば、電子機器又は連携する外部の専用端末が、レストランの個室、ホテルの客室、マンションのパーティルーム、結婚式の披露宴会場、個人または法人が注文するデリバリー形式のケータリング先といった場所に置かれる場合、レストランであれば予約したユーザ10の属性情報、過去の予約履歴又はオーダー履歴、招待したユーザ10のプロフィール、お祝い事又は記念日などのパーティ、又は、宿泊の利用目的、当日のコース料理の内容、予約した個室又はホテル居室の空間テーマ又は特徴などの、ユーザ10または空間に関する静的または動的な情報を含んでもよい。ここで、ユーザ10の属性情報は、ユーザ10の年齢、性別、家族構成、子供の有無又は職業などを含む。オーダー履歴は、食事又は酒の嗜好を含む。そして、コンテンツに関する制御では、例えば、お子様がいる時にはポップな映像音響コンテンツを優先的に再生させる、コース料理の提供の進捗に合わせて映像音響コンテンツの再生内容を変更するようにしてもよい。より具体的には、音響は途切れなく再生しながら、食材の原産地に関連する映像に切り替える、選択したデザート又は紅茶に関連する地域に属するアーティストの音楽又はアート作品を優先して選定する、ウィーン宮廷料理ならオーストリアに関連する映像又は音楽を優先する、などがあり得る。 In addition, although the specific example centered on the input from the sensor mounted on the electronic device or the external dedicated terminal to be linked is described here, the input data is not limited to the sensor, for example, the electronic device or the linkage If an external dedicated terminal is placed in a restaurant private room, hotel room, condominium party room, wedding reception hall, or a delivery-type catering destination ordered by an individual or corporation, a restaurant is reserved User 10 attribute information, past reservation history or order history, profile of invited user 10, party such as celebration or anniversary, or purpose of stay, contents of course meal on that day, reserved private room or hotel room Static or dynamic information about the user 10 or space, such as a spatial theme or feature It may also include a. Here, the attribute information of the user 10 includes the age, sex, family structure, presence / absence of child, occupation, and the like of the user 10. The order history includes food or liquor preferences. In the control related to the content, for example, when the child is present, the pop audiovisual content may be preferentially reproduced, and the reproduction content of the audiovisual content may be changed in accordance with the progress of the course meal provision. More specifically, the Vienna court preferentially selects the music or artwork of an artist belonging to the region associated with the selected dessert or tea, switching to a video related to the origin of the ingredients, while playing the sound seamlessly. In the case of cooking, priority may be given to images or music related to Austria.
 また、専用端末は、例えば、焙煎機、コーヒーメーカー、電磁調理機、又は、オーブンといった調理機器であり、焙煎した生豆の原産地を判定し、焙煎時の音、ミル時の音、ドリップ時の音を活用したその時々の映像音響コンテンツをその場で生成するようにしてもよい。また、電磁調理機でコトコトと煮る様子又はオーブンでじっくりと焼きあがる工程を映像音響コンテンツとして組み込むことで、提供される料理又は飲料のバックグラウンドを五感で楽しませる演出を提供することができる。また、ワイン又は日本酒の銘柄を特定することができるワインボトルクーラーが外部の専用端末として存在する場合、喫飲するお酒の銘柄情報から産地又は原材料、こだわりの飲み方に関連する映像音響コンテンツを再生したり、日本酒の造り方を解説する映像音響コンテンツをボトル挿入と連動して再生したりするよう制御してもよい。また、外部の専用端末のセンサが、天井カメラのように、空間の広範囲の状況を認識できるセンサであった場合、コース料理がテーブル上に出揃った時点、又は、出揃うまでの時間に、料理長からのメッセージビデオ、又は、料理に使われた食材の原産地又は飼育環境、3日間の仕込み工程など、食卓に並んだ料理のバックストーリーをタイミングよく自動的に挿入再生することで、空間の間延びを避け、料理の美味しさを映像音響コンテンツの情報により最高潮に演出することができる。 The dedicated terminal is a cooking device such as a roasting machine, a coffee maker, an electromagnetic cooking machine, or an oven, for example, determining the place of origin of the roasted green beans, the sound during roasting, the sound during milling, You may make it produce | generate the audiovisual content at that time using the sound at the time of drip on the spot. In addition, by incorporating a process of boiling with an electromagnetic cooking machine or a process of slowly baking in an oven as an audiovisual content, it is possible to provide an effect of enjoying the background of the provided food or beverage with the five senses. In addition, if there is a wine bottle cooler that can specify the brand of wine or sake as an external dedicated terminal, the audio / video content related to the place of production or raw material, and the particular way of drinking can be obtained from the brand information of the drink. It may be controlled to play back or play audiovisual content explaining how to make sake in conjunction with the insertion of a bottle. In addition, if the sensor of the external dedicated terminal is a sensor that can recognize a wide range of space conditions, such as a ceiling camera, the chef at the time when the course dish is served on the table or until it is served. By automatically inserting and playing back stories of dishes on the table in a timely manner, such as the message video from or the origin or breeding environment of the ingredients used for cooking, the 3-day preparation process, etc. By avoiding this, the deliciousness of cooking can be produced at the climax by the information of audiovisual content.
 また、会話の頻度、又は、会話の盛り上がり若しくは盛り下がりを検知することで、会話の頻度が高く、笑い声又は声のトーンを指標に盛り上がっていると判定する場合には、映像音響コンテンツの映像又は音響が主張し過ぎず、画面のちらつき若しくは切り替えが少ない映像、又は、音の強弱が少ない音響楽曲を優先的に選定するようにしてもよい。また、会話の頻度が低く、笑い声が少なく声のトーンから緊張又は盛り下がりを判定する場合には、映像音響コンテンツの映像、又は、音響に工夫を施し、ポップでユーモアに富んだ映像、動きのある映像、じっくり鑑賞することで変化又は意外性の話題を提供できる映像、又は、場の雰囲気を軽快にする音響楽曲を優先的に選定するようにしてもよい。 In addition, when it is determined that the conversation frequency is high and the conversation frequency is high and the laughter or the tone of the voice is high as an index by detecting the conversation frequency or the conversation excitement or decline, You may make it preferentially select the image | video with little flickering or switching of a screen, or an acoustic music piece with little intensity of sound, in which sound does not insist too much. In addition, when the frequency of conversation is low, laughter is low, and tension or rise is judged from the tone of the voice, the video or audio content is devised, pop and humorous video, You may make it preferentially select a certain video, a video that can provide a topic of change or unexpectedness by carefully watching, or an acoustic music that lightens the atmosphere of the place.
 また、電子機器又は連携する外部の専用端末が、ビル共用部、会議室、音楽スタジオ、又は、シェアハウスの共有空間に置かれる場合、電子機器および外部の専用端末を複数台設置するようにしてもよい。例えば、ビル共用部の混雑度合いを電子機器または外部の専用端末に搭載したセンサまたは来館数記録システムから取得し、空間が閑散としていれば、複数の電子機器の配置関係を把握し、複数の電子機器で1枚の大きな映像を形成して再生させるよう各電子機器に配置関係を加味して映像を切り出して配信制御するようにしてもよい。また、空間内が混雑していれば、個々の来場者が身近に映像音響コンテンツを視認できるよう個々の電子機器に最適化して映像音響コンテンツを再生するように制御してもよい。また、大切なお客様の来客をビル共用部でおもてなしの心でお迎えするために、お客様の事業に関係する映像音響コンテンツを優先的に再生してもよい。また、お客様の顔の特徴を予め登録し、お客様の来客を検知することで劇的または自然体に映像音響コンテンツを変化させる演出を提供してもよい。 In addition, when electronic devices or linked external dedicated terminals are placed in the shared space of a building common area, conference room, music studio, or share house, install multiple electronic devices and external dedicated terminals. Also good. For example, if the degree of congestion in a building common area is obtained from a sensor mounted on an electronic device or an external dedicated terminal or a visitor number recording system, and the space is quiet, the arrangement relationship of multiple electronic devices can be grasped and The distribution control may be performed by cutting out the video in consideration of the arrangement relationship of each electronic device so that one large video is formed and reproduced by the device. Further, if the space is congested, control may be performed so that the audiovisual content is optimized and optimized for each electronic device so that each visitor can visually recognize the audiovisual content. In addition, in order to welcome important customers with hospitality at the building common use department, you may preferentially play audiovisual content related to your business. In addition, by registering the facial features of the customer in advance and detecting the customer's visitor, an effect of changing the audiovisual content dramatically or naturally may be provided.
 また、例えば、会議室であれば、会議の設定時間に合わせて映像音響コンテンツの再生順序を設計し、冒頭の目的課題共有から議論派生のフェーズ、まとめのフェーズ、ラップアップと承認、アクションアイテム確認などに応じて映像音響コンテンツを再生するようにしてもよい。また、会話の頻度が高く活発な議論が行えていることを示す場合には、電子機器の本体では、活発でよい会議を示す映像音響コンテンツを再生し、さらに、外部の出力機器として、照明の色合いを変更したり、リラックス又はクールダウン効果を促す香りを出力したりするよう制御することで、空間価値を高めるよう制御してもよい。また、会話の頻度が低く活発な議論が展開されていない場合、議論のきっかけになるような映像音響コンテンツを再生したり、煮詰まった思考感情をブレークダウンさせるような爽やかな効果がある映像音響コンテンツを再生したり、思考を刺激するような効果のある香りを出力するよう制御したりしてもよい。さらに、会議室利用終了時刻の15分前から、会議室利用終了時刻が近いことを示すよう再生方法を変更制御してもよい。例えば、15分前からアラーム音が段階的に挿入される、画面が段階的に小さくなる、音響音量が大きくなる、又は、画面が真っ赤に染まっていくなど、会議室利用者に明示的に状況の変化が伝わるよう工夫することができる。 Also, for example, in the case of a conference room, the playback order of audiovisual content is designed according to the set time of the conference, and the phase of deriving discussion, sharing phase, wrap-up and approval, and action item confirmation from the initial objective sharing The audiovisual content may be reproduced according to the above. In addition, when the frequency of conversation is high and active discussions can be performed, the main body of the electronic device reproduces audiovisual content indicating an active meeting, and further, as an external output device, lighting Control may be performed to increase the spatial value by changing the hue or outputting a scent that promotes a relaxation or cool-down effect. In addition, when the conversation frequency is low and active discussions are not being developed, audiovisual content that can be used as a trigger for discussions, or that has a refreshing effect that breaks down the thoughts of thought, can be refreshed. Or may be controlled to output a scent that has an effect of stimulating thought. Further, the playback method may be changed and controlled so as to indicate that the conference room use end time is close from 15 minutes before the conference room use end time. For example, an alarm sound is inserted step by step from 15 minutes ago, the screen is gradually reduced, the sound volume is increased, or the screen is stained red. Can be devised so that changes in
 また、例えば、音楽スタジオ又はカラオケなどの音響ルームであれば、音楽を奏でる奏者又は声楽として音声を発する演者が音楽を発するので映像コンテンツだけを再生する制御にしてもよい。奏者又は演者がリラックスして練習できる環境づくりとして、奏者又は演者を認識して予め登録された奏者又は演者の好みの映像コンテンツを再生したり、奏でた楽器の声音特徴又は声楽として発した声音の特徴を把握し、その特徴に応じた映像コンテンツを再生したりしてもよい。特に、練習中の奏者又は演者においては、本来奏でるべき音階に対し、適合度が高い場合には、適合度が高いことを示す映像コンテンツを再生する、または、適合度が低い場合には、適合度が低く対処すべき内容を含む映像コンテンツを再生するなどが考えられる。この映像コンテンツは、例えば、音程を高くする方向に誘導するための右肩上がりに物体が動く映像などがある。また、音楽スタジオに限らず、奏者又は演者を有するコンサートホール、高級レストラン、ホテルロビー、ビル共用部、又は、商業複合施設のステージなどに当該電子機器を複数台設置した場合、各々が個別に動作するのではなく、電子機器同士が通信部を介してネットワークで接続され、統一された同期的な動きをするよう設計実装し、奏者または演者が発した音声の特徴、具体的には楽曲、楽器、演者の声紋に応じて複数の電子機器で同期的に映像コンテンツを再生させるよう演出することもできる。例えば、クラシックなどの楽曲を特定し、楽曲の起承転結のために設計された映像コンテンツを、進行状況に合わせて少なくとも1つ以上の電子機器で再生するよう制御してもよい。 Further, for example, in an acoustic room such as a music studio or karaoke, a player who plays music or a performer who utters voice as vocal music emits music, so that only video content may be played back. To create an environment in which a player or performer can relax and practice, the player or performer recognizes the player or plays a pre-registered player or performer's favorite video content, or the voice sound feature of the instrument played or the vocal sound The feature may be grasped and video content corresponding to the feature may be reproduced. In particular, a player or performer who is practicing plays a video content indicating that the fitness level is high if the fitness level is high with respect to the scale that should be played, or if the fitness level is low, For example, it may be possible to play back video content including content to be dealt with at a low level. This video content includes, for example, a video in which an object moves upward as it rises to guide the pitch in the direction of increasing the pitch. In addition to music studios, when multiple electronic devices are installed in concert halls with performers or performers, high-end restaurants, hotel lobbies, shared buildings, or commercial complex facilities, each operates individually. Rather than electronic devices connected via a network via a communication unit, they are designed and implemented so that they move in a unified and synchronized manner. It is also possible to produce a video content that is synchronized with a plurality of electronic devices according to the voiceprint of the performer. For example, music such as classical music may be specified, and video content designed for starting and transferring music may be controlled to be played on at least one electronic device according to the progress.
 また、奏者または演者が発する音声の特徴に限らず、演奏又は声楽を聴衆する観客の拍手又は指笛、場を取り仕切るファシリテーターが指を鳴らす動作で発する単発音など、ユーザ10の行動行為で発する非言語の音声又は環境音の特徴を判定し、映像音響コンテンツの再生内容又は再生順序を変更するようにしてもよい。 In addition, not only the characteristics of the sound produced by the performer or performer, but the non-occurrence caused by the action of the user 10 such as applause or finger whistle of the audience who listens to the performance or vocal music, single sound produced by the operation of the facilitator who manages the place ringing the finger It is also possible to determine the characteristics of language audio or environmental sound and change the playback content or playback order of the audiovisual content.
 また、例えば、シェアハウスの共用スペースであれば、時系列と共に共用スペースでも共同生活をする入居者が増減し、場の雰囲気づくりを変化させる必要がある。そのため、例えば、電子機器または外部の専用端末のセンサで共用スペースの人数を把握し、人数が少ない時には落ち着いた映像音響コンテンツに切り替える、又は、人数が増えて人同士の会話が増えたり、パーティに近い雰囲気になったりすれば、明るくポップな映像音響コンテンツに切り替えるように制御してもよい。さらに、あるユーザ10がアナログレコードを持ち出して、レコードプレーヤーで再生を始めたら、外部音楽ありと判定し、電子機器または外部の専用端末からの音響コンテンツ出力を停止して、映像コンテンツの再生のみに変更するよう制御してもよい。ここで、人数の把握は、例えば二次元温度センサにより有温物体の数を把握することでなされ得る。また、外部音楽の特徴をクラウド上のデータベースと照合して把握し、外部音楽の特徴にマッチするカテゴリの映像コンテンツに切り替えるようにしてもよい。なお、ここでは、映像音響コンテンツは、電子機器または外部の専用端末にプリセットされていてもよいし、通信部を介してネットワーク経由でダウンロードして追加できるようにしてもよい。 Also, for example, in the case of a shared space in a share house, the number of tenants living together in the shared space with the time series needs to increase or decrease, and the creation of the atmosphere of the place needs to be changed. Therefore, for example, the number of people in the shared space is grasped with sensors of electronic devices or external dedicated terminals, and when there are few people, switch to calm audiovisual content, or the number of people increases and conversations between people increase, If the atmosphere is close, it may be controlled to switch to bright and pop audiovisual content. Furthermore, when a certain user 10 takes out an analog record and starts playback on the record player, it is determined that there is external music, and the audio content output from the electronic device or the external dedicated terminal is stopped, and only the video content is played back. You may control to change. Here, the number of persons can be grasped by grasping the number of warm objects using, for example, a two-dimensional temperature sensor. In addition, the external music feature may be grasped by collating with a database on the cloud, and the video content may be switched to a category that matches the external music feature. Here, the audiovisual content may be preset in an electronic device or an external dedicated terminal, or may be downloaded and added via a network via a communication unit.
 (実施の形態3)
 本実施の形態では、上記の各実施の形態又は変形例に示した電子機器の構成、及び、電子機器の制御方法について説明する。
(Embodiment 3)
In this embodiment, a structure of an electronic device and a method for controlling the electronic device described in each of the above embodiments or modifications will be described.
 図26は、本実施の形態に係る機器101を示すブロック図である。 FIG. 26 is a block diagram showing the device 101 according to the present embodiment.
 図26に示されるように、機器101は、取得部301と、制御処理部302とを備える。 As shown in FIG. 26, the device 101 includes an acquisition unit 301 and a control processing unit 302.
 取得部301は、機器101の周囲の環境に関する情報、又は、機器101の設置態様に関する情報を含む、機器101の環境情報を取得する。 The acquisition unit 301 acquires environment information of the device 101 including information related to the environment around the device 101 or information related to the installation mode of the device 101.
 制御処理部302は、機器101の環境情報と、機器101によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した環境情報に対応付けられた、機器101によるコンテンツの提示に関する制御を行う。 The control processing unit 302 refers to a predetermined association between the environment information of the device 101 and the details of the control related to the presentation of the content by the device 101, so that the content of the content by the device 101 associated with the acquired environment information is displayed. Control the presentation.
 図27は、本実施の形態に係る機器101の制御方法を示すフロー図である。 FIG. 27 is a flowchart showing a method for controlling the device 101 according to the present embodiment.
 図27に示されるように、機器101の制御方法は、ステップS1及びS2を含む。 As shown in FIG. 27, the control method of the device 101 includes steps S1 and S2.
 ステップS1において、取得部301は、機器101の周囲の環境に関する情報、又は、機器101の設置態様に関する情報を含む、機器101の環境情報を取得する。 In step S <b> 1, the acquisition unit 301 acquires the environment information of the device 101 including information about the environment around the device 101 or information about the installation mode of the device 101.
 ステップS2において、制御処理部302は、機器101の環境情報と、機器101によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した環境情報に対応付けられた、機器101によるコンテンツの提示に関する制御を行う。 In step S <b> 2, the control processing unit 302 refers to a predetermined association between the environment information of the device 101 and the content of the control related to the presentation of content by the device 101, so that the device is associated with the acquired environment information. 101 performs control related to the presentation of content.
 これにより、電子機器は、ハードウェア又はソフトウェア的な要因とは異なる、電子機器の周囲の環境に応じたコンテンツの提示の制御を行うことができる。 Thus, the electronic device can control the presentation of content according to the environment around the electronic device, which is different from hardware or software factors.
 上記態様において説明された技術は、例えば、以下のクラウドサービスの類型において実現されうる。しかし、上記態様において説明された技術が実現される類型はこれに限られるものでない。 The technology described in the above aspect can be realized, for example, in the following types of cloud services. However, the type in which the technique described in the above embodiment is realized is not limited to this.
 (サービスの類型1:自社データセンタ型)
 図28は、サービスの類型1(自社データセンタ型)を示す。本類型は、サービスプロバイダ120がグループ100から情報を取得し、ユーザ10に対してサービスを提供する類型である。本類型では、サービスプロバイダ120が、データセンタ運営会社の機能を有している。すなわち、サービスプロバイダ120が、ビッグデータの管理をするクラウドサーバ111を保有している。従って、データセンタ運営会社は存在しない。
(Service type 1: In-house data center type)
FIG. 28 shows service type 1 (in-house data center type). This type is a type in which the service provider 120 acquires information from the group 100 and provides a service to the user 10. In this type, the service provider 120 has a function of a data center operating company. That is, the service provider 120 has a cloud server 111 that manages big data. Therefore, there is no data center operating company.
 本類型では、サービスプロバイダ120は、データセンタ2203(クラウドサーバ111)を運営、管理している。また、サービスプロバイダ120は、OS2202及びアプリケーション2201を管理する。サービスプロバイダ120は、サービスプロバイダ120が管理するOS2202及びアプリケーション2201を用いてサービス提供2204を行う。 In this type, the service provider 120 operates and manages the data center 2203 (cloud server 111). The service provider 120 manages the OS 2202 and the application 2201. The service provider 120 performs service provision 2204 using the OS 2202 and the application 2201 managed by the service provider 120.
 (サービスの類型2:IaaS利用型)
 図29は、サービスの類型2(IaaS利用型)を示す。ここでIaaSとはインフラストラクチャー・アズ・ア・サービスの略であり、コンピュータシステムを構築および稼動させるための基盤そのものを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
(Service type 2: IaaS usage type)
FIG. 29 shows service type 2 (IaaS usage type). Here, IaaS is an abbreviation for infrastructure as a service, and is a cloud service provision model that provides a base for constructing and operating a computer system as a service via the Internet.
 本類型では、データセンタ運営会社がデータセンタ2203(クラウドサーバ111)を運営、管理している。また、サービスプロバイダ120は、OS2202及びアプリケーション2201を管理する。サービスプロバイダ120は、サービスプロバイダ120が管理するOS2202及びアプリケーション2201を用いてサービス提供2204を行う。 In this type, the data center operating company operates and manages the data center 2203 (cloud server 111). The service provider 120 manages the OS 2202 and the application 2201. The service provider 120 performs service provision 2204 using the OS 2202 and the application 2201 managed by the service provider 120.
 (サービスの類型3:PaaS利用型)
 図30は、サービスの類型3(PaaS利用型)を示す。ここでPaaSとはプラットフォーム・アズ・ア・サービスの略であり、ソフトウェアを構築および稼動させるための土台となるプラットフォームを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
(Service type 3: PaaS usage type)
FIG. 30 shows service type 3 (PaaS usage type). Here, PaaS is an abbreviation for Platform as a Service, and is a cloud service provision model that provides a platform serving as a foundation for constructing and operating software as a service via the Internet.
 本類型では、データセンタ運営会社110は、OS2202を管理し、データセンタ2203(クラウドサーバ111)を運営、管理している。また、サービスプロバイダ120は、アプリケーション2201を管理する。サービスプロバイダ120は、データセンタ運営会社が管理するOS2202及びサービスプロバイダ120が管理するアプリケーション2201を用いてサービス提供2204を行う。 In this type, the data center operating company 110 manages the OS 2202 and operates and manages the data center 2203 (cloud server 111). Further, the service provider 120 manages the application 2201. The service provider 120 provides the service 2204 using the OS 2202 managed by the data center operating company and the application 2201 managed by the service provider 120.
 (サービスの類型4:SaaS利用型)
 図31は、サービスの類型4(SaaS利用型)を示す。ここでSaaSとはソフトウェア・アズ・ア・サービスの略である。例えばデータセンタ(クラウドサーバ)を保有しているプラットフォーム提供者が提供するアプリケーションを、データセンタ(クラウドサーバ)を保有していない会社・個人(利用者)がインターネットなどのネットワーク経由で使用できる機能を有するクラウドサービス提供モデルである。
(Service type 4: SaaS usage type)
FIG. 31 shows service type 4 (SaaS usage type). Here, SaaS is an abbreviation for software as a service. For example, a function that allows applications provided by a platform provider who owns a data center (cloud server) to be used via a network such as the Internet by a company / individual (user) who does not have a data center (cloud server). This is a cloud service provision model.
 本類型では、データセンタ運営会社110は、アプリケーション2201を管理し、OS2202を管理し、データセンタ2203(クラウドサーバ111)を運営、管理している。また、サービスプロバイダ120は、データセンタ運営会社110が管理するOS2202及びアプリケーション2201を用いてサービス提供2204を行う。 In this type, the data center operating company 110 manages the application 2201, manages the OS 2202, and operates and manages the data center 2203 (cloud server 111). Further, the service provider 120 provides the service 2204 using the OS 2202 and the application 2201 managed by the data center operating company 110.
 以上いずれの類型においても、サービスプロバイダ120がサービス提供行為を行ったものとする。また例えば、サービスプロバイダ若しくはデータセンタ運営会社は、OS、アプリケーション若しくはビッグデータのデータベース等を自ら開発してもよいし、また、第三者に外注させてもよい。 In any of the above types, it is assumed that the service provider 120 performs a service providing act. Further, for example, the service provider or the data center operating company may develop an OS, an application, a big data database, or the like, or may be outsourced to a third party.
 以上のように、各実施の形態の電子機器の制御方法によれば、電子機器は、取得した環境情報と、所定の対応付けとを用いてコンテンツの提示に関する制御を行う。所定の対応付けには、電子機器の環境情報と、制御の内容とが予め対応づけられている。よって、電子機器は、取得した電子機器の環境情報に基づいてコンテンツの提示に関する制御を行い得る。このように、電子機器は、電子機器の周囲の環境に応じたコンテンツの提示の制御を行うことができる。 As described above, according to the electronic device control method of each embodiment, the electronic device performs control related to presentation of content using the acquired environment information and a predetermined association. The predetermined association is associated in advance with the environmental information of the electronic device and the content of the control. Therefore, the electronic device can perform control related to content presentation based on the acquired environmental information of the electronic device. Thus, the electronic device can control the presentation of content according to the environment around the electronic device.
 また、環境情報は、電子機器の周囲の人の有無若しくは向き、電子機器から見た周囲の人の方向、又は、周囲の明るさもしくは音量というように具体的な情報を含む。電子機器の周囲の人の情報としては、カメラを用いて、人の視線や表情を捉え、環境情報としてもよい。また、電子機器は、環境情報を取得するセンサを用いて具体的に構成され得る。このような具体的な構成に基づいて、電子機器は、電子機器の周囲の環境に応じたコンテンツの提示に関する制御を行うことができる。 Also, the environmental information includes specific information such as the presence or orientation of a person around the electronic device, the direction of the person around the electronic device, or the brightness or volume of the surroundings. Information about people around the electronic device may be environmental information by capturing a person's line of sight and expression using a camera. Also, the electronic device can be specifically configured using a sensor that acquires environmental information. Based on such a specific configuration, the electronic device can perform control related to the presentation of content according to the environment around the electronic device.
 また、環境情報は、電子機器の周囲の人の有無若しくは向き、電子機器から見た周囲の人の方向、又は、周囲の明るさもしくは音量という具体的な情報を、複合的に考慮して、電子機器の周囲の環境に応じたコンテンツの提示に関する制御をより適切に行うことができる。 In addition, environmental information is combined with specific information such as the presence or orientation of people around the electronic device, the direction of people around the electronic device, or the brightness or volume of the surroundings. Control related to presentation of content according to the environment around the electronic device can be performed more appropriately.
 また、電子機器は、コンテンツの提示に関する制御として、複数のコンテンツのうちから提示すべきコンテンツを選択することができる。 Also, the electronic device can select a content to be presented from among a plurality of contents as control related to the presentation of the contents.
 また、電子機器は、複数のコンテンツのうちから提示すべきコンテンツを選択する際に、コンテンツの属性情報に基づいてコンテンツを選択することができる。 In addition, when the electronic device selects content to be presented from a plurality of content, the electronic device can select the content based on the attribute information of the content.
 また、電子機器は、複数のコンテンツのうちから提示すべきコンテンツを選択する際に、コンテンツの提示の際におけるコンテンツの編集、調整又は加工などが許容されるか否かを示す許容情報に基づいて、コンテンツの選択をすることができる。これにより、許容されない態様でのコンテンツの提示が回避される。 In addition, when the electronic device selects content to be presented from among a plurality of content, the electronic device is based on permission information indicating whether editing, adjustment, or processing of the content at the time of content presentation is permitted. The content can be selected. This avoids presentation of content in an unacceptable manner.
 また、電子機器は、コンテンツの提示に関する制御として、コンテンツの提示の開始、停止又は終了を行うことができる。 In addition, the electronic device can start, stop, or end the presentation of content as control related to the presentation of content.
 また、電子機器は、コンテンツの提示に関する制御として、コンテンツの音量又は明るさの変更を行うことができる。 In addition, the electronic device can change the volume or brightness of the content as control related to the presentation of the content.
 また、環境情報は、電子機器の姿勢に関する具体的な情報を含む。そして、電子機器は、電子機器の姿勢に基づいてコンテンツの提示に関する制御を行うことができる。 Also, the environmental information includes specific information on the attitude of the electronic device. Then, the electronic device can perform control related to presentation of content based on the attitude of the electronic device.
 また、環境情報は、電子機器が複数並べて配置されているか否かを示す具体的な情報を含む。そして、電子機器は、電子機器の配置のされ方に基づいてコンテンツの提示に関する制御を行うことができる。 Also, the environmental information includes specific information indicating whether or not a plurality of electronic devices are arranged side by side. Then, the electronic device can perform control related to presentation of content based on how the electronic device is arranged.
 また、電子機器は、コンテンツを提示した回数、提示した時刻などを示すログ情報を出力する。出力されたログ情報は、例えばコンテンツのクリエータにフィードバックされ、コンテンツの改善、又は、新規コンテンツの作成の際に活用され得る。このとき、ログ情報とともに電子機器が設置されている設置状況や環境情報がコンテンツのクリエータにフィードバックされるとなおよい。 In addition, the electronic device outputs log information indicating the number of times content is presented, the time of presentation, and the like. The output log information is fed back to, for example, a content creator, and can be utilized when content is improved or new content is created. At this time, it is more preferable that the installation status and environment information where the electronic device is installed together with the log information is fed back to the content creator.
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の電子機器などを実現するソフトウェアは、次のようなプログラムである。 In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the electronic device of each of the above embodiments is a program as follows.
 すなわち、このプログラムは、コンピュータに、電子機器の制御方法であって、前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得し、前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う制御方法を実行させる。 In other words, this program is a method for controlling an electronic device, and obtains environmental information of the electronic device including information on an environment around the electronic device or information on an installation mode of the electronic device. The presentation of content by the electronic device associated with the acquired environment information by referring to a predetermined association between the environmental information of the electronic device and the details of the control related to the presentation of the content by the electronic device A control method for performing control related to the above is executed.
 以上、一つまたは複数の態様に係る電子機器などについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 As mentioned above, although the electronic device etc. which concern on the one or several aspect were demonstrated based on embodiment, this indication is not limited to this embodiment. Unless it deviates from the gist of the present disclosure, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included.
 本開示にかかる電子機器の機器制御方法は、家庭内および家庭外のあらゆる電子機器に搭載可能である。また自動車等の車両や飛行機などの移動体に本開示における電子機器および機器制御方法を搭載することもできる。 The device control method for an electronic device according to the present disclosure can be installed in any electronic device in and outside the home. In addition, the electronic device and the device control method according to the present disclosure can be mounted on a vehicle such as an automobile or a moving body such as an airplane.
 10  ユーザ
 20  クリエータ
 100  グループ
 101、101a、101b、101c、101d、101e  機器
 102  ホームゲートウェイ
 103  リモコン
 110  データセンタ運営会社
 111  クラウドサーバ
 120  サービスプロバイダ
 121  サーバ
 201、201c、201F、201BH、201BL  センサ
 202、202d  出力部
 202e  入出力部
 203、302、1301、1303、1401  制御処理部
 203A、1303A、1402  視聴環境推定部
 203B、1403  制御内容決定部
 204、1305、1404  コンテンツ管理部
 204A  視聴環境蓄積DB
 204B  コンテンツDB
 205  上部スピーカ
 206  下部スピーカ
 207、1302、1302c、1302d、1302e、1304  情報送受信部
 301  取得部
 801、901A、901B、901C、901D、1001、1101、1201  テーブル
 1405  嗜好傾向DB
 2201  アプリケーション
 2202  OS
 2203  データセンタ
 2204  サービス提供
 C205、C206  音声
 F1  フック
 H1  フック掛け穴
 P101  外装フレーム
 P102  構造フレーム
 P103  バックカバー
 P104  装飾部材
 P111  スピーカネット
 P112  スピーカベース板
 P113  スピーカ
 P121  カバーガラス
 P122  表示パネル
10 user 20 creator 100 group 101, 101a, 101b, 101c, 101d, 101e equipment 102 home gateway 103 remote control 110 data center operating company 111 cloud server 120 service provider 121 server 201, 201c, 201F, 201BH, 201BL sensor 202, 202d output Unit 202e Input / output unit 203, 302, 1301, 1303, 1401 Control processing unit 203A, 1303A, 1402 Viewing environment estimation unit 203B, 1403 Control content determination unit 204, 1305, 1404 Content management unit 204A Viewing environment storage DB
204B Content DB
205 Upper speaker 206 Lower speaker 207, 1302, 1302c, 1302d, 1302e, 1304 Information transmission / reception unit 301 Acquisition unit 801, 901A, 901B, 901C, 901D, 1001, 1101, 1201 Table 1405 Preference trend DB
2201 Application 2202 OS
2203 Data center 2204 Service provision C205, C206 Audio F1 Hook H1 Hook hook P101 Exterior frame P102 Structure frame P103 Back cover P104 Decoration member P111 Speaker net P112 Speaker base plate P113 Speaker P121 Cover glass P122 Display panel

Claims (14)

  1.  電子機器の制御方法であって、
     前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得し、
     前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う
     制御方法。
    An electronic device control method comprising:
    Obtaining environmental information of the electronic device, including information on the environment around the electronic device, or information on an installation mode of the electronic device,
    The presentation of content by the electronic device associated with the acquired environment information by referring to a predetermined association between the environmental information of the electronic device and the details of control related to the presentation of the content by the electronic device Control method to control.
  2.  前記環境情報は、前記電子機器の周囲の環境に関する情報として、前記電子機器の周囲の人の有無、前記電子機器の周囲の人の向き、前記電子機器から見た周囲の人の方向、前記電子機器の周囲の明るさ、又は、前記電子機器の周囲の音量を示す情報を含み、
     前記環境情報の取得は、
     前記電子機器の周囲の環境を感知して前記環境を示す環境値を出力するセンサによりなされる
     請求項1に記載の制御方法。
    The environmental information is information about the environment around the electronic device, such as the presence / absence of a person around the electronic device, the direction of the person around the electronic device, the direction of the person around the electronic device, the electronic Including information indicating the brightness around the device or the volume around the electronic device,
    Acquisition of the environmental information
    The control method according to claim 1, wherein the control method is performed by a sensor that senses an environment around the electronic device and outputs an environment value indicating the environment.
  3.  前記環境情報は、前記電子機器の周囲の人の有無、前記電子機器の周囲の人の向き、前記電子機器から見た周囲の人の方向、前記電子機器の周囲の明るさ、及び、前記電子機器の周囲の音量、の少なくとも2つを示す情報を含み、
     前記電子機器によるコンテンツの提示に関する制御は、上記少なくとも2つを示す情報に複合的に応じてなされる
     請求項2に記載の制御方法。
    The environmental information includes the presence / absence of a person around the electronic device, the direction of the person around the electronic device, the direction of the person seen from the electronic device, the brightness around the electronic device, and the electronic Including information indicating at least two of the volume around the device,
    The control method according to claim 2, wherein the control related to the presentation of content by the electronic device is performed in response to information indicating the at least two.
  4.  前記コンテンツの提示に関する制御では、
     前記所定の対応付けを参照することで、前記センサにより取得された前記環境情報に対応付けられた前記制御の内容である、前記電子機器により提示すべきコンテンツを選択し、選択された前記コンテンツを提示する制御を行う
     請求項2又は3に記載の制御方法。
    In the control related to the presentation of the content,
    By referring to the predetermined association, the content to be presented by the electronic device, which is the content of the control associated with the environment information acquired by the sensor, is selected, and the selected content is The control method according to claim 2 or 3, wherein control for presenting is performed.
  5.  前記所定の対応付けは、前記電子機器の環境情報と、当該環境情報に適合する環境情報を有する電子機器が提示すべきコンテンツの属性を示す属性情報との対応付けを含み、
     前記コンテンツの提示に関する制御では、
     前記所定の対応付けを参照することで、取得した前記環境情報に対応付けられた属性情報を有するコンテンツの選択を行う
     請求項4に記載の制御方法。
    The predetermined association includes association between environment information of the electronic device and attribute information indicating an attribute of content to be presented by the electronic device having environment information matching the environment information,
    In the control related to the presentation of the content,
    The control method according to claim 4, wherein content having attribute information associated with the acquired environment information is selected by referring to the predetermined association.
  6.  前記所定の対応付けは、前記電子機器が提示すべきコンテンツと、当該コンテンツの許容される提示態様を示す許容情報とを含み、
     前記コンテンツの提示に関する制御では、前記許容情報によって許容される提示態様で提示できるコンテンツの選択を行う
     請求項5に記載の制御方法。
    The predetermined association includes content to be presented by the electronic device and permission information indicating a permitted presentation mode of the content,
    The control method according to claim 5, wherein in the control related to the presentation of the content, a content that can be presented in a presentation mode permitted by the permission information is selected.
  7.  前記所定の対応付けは、前記電子機器の環境情報の変化を示す情報と、コンテンツの提示の開始、停止又は終了との対応付けを含み、
     前記コンテンツの提示に関する制御では、
     前記所定の対応付けを参照することで、取得した前記環境情報の変化に対応付けられた、前記電子機器により提示すべきコンテンツの提示の開始、停止又は終了を行う
     請求項1~6のいずれか1項に記載の制御方法。
    The predetermined association includes association between information indicating a change in environmental information of the electronic device and start, stop, or end of presentation of content,
    In the control related to the presentation of the content,
    The presentation of content to be presented by the electronic device associated with the change in the acquired environment information is started, stopped, or terminated by referring to the predetermined association. 2. The control method according to item 1.
  8.  前記所定の対応付けは、前記電子機器の環境情報の変化を示す情報と、コンテンツの音量又は明るさの変更との対応付けを含み、
     前記コンテンツの提示に関する制御では、
     前記所定の対応付けを参照することで、取得した前記環境情報の変化に対応付けられた、前記電子機器により提示すべきコンテンツの音量又は明るさの変更を行う
     請求項1~7のいずれか1項に記載の制御方法。
    The predetermined association includes an association between information indicating a change in environmental information of the electronic device and a change in volume or brightness of content,
    In the control related to the presentation of the content,
    The volume or brightness of the content to be presented by the electronic device associated with the change in the acquired environment information is changed by referring to the predetermined association. The control method according to item.
  9.  前記環境情報は、前記電子機器の設置態様に関する情報として、設置された前記電子機器の姿勢を示す情報を含み、
     前記所定の対応付けは、前記電子機器の姿勢を示す情報と、当該姿勢にある前記電子機器によるコンテンツの提示に関する制御との対応付けを含み、
     前記コンテンツの提示に関する制御では、前記電子機器の姿勢を示す情報に対応付けられた、コンテンツの提示に関する制御を行う
     請求項1~8のいずれか1項に記載の制御方法。
    The environment information includes information indicating an attitude of the installed electronic device as information on an installation mode of the electronic device,
    The predetermined association includes an association between information indicating the posture of the electronic device and control related to presentation of content by the electronic device in the posture;
    The control method according to any one of claims 1 to 8, wherein in the control related to the presentation of content, the control related to the presentation of content associated with information indicating the attitude of the electronic device is performed.
  10.  前記環境情報は、前記電子機器の設置態様に関する情報として、前記電子機器が他の電子機器とともに並べて設置されているか否かに関する情報である並置情報を含み、
     前記所定の対応付けは、前記電子機器の並置情報と、当該並置情報に示される設置の態様で設置された前記電子機器によるコンテンツの提示に関する制御との対応付けを含み、
     前記コンテンツの提示に関する制御では、前記電子機器の並置情報に対応付けられた、コンテンツの提示に関する制御を行う
     請求項1~9のいずれか1項に記載の制御方法。
    The environmental information includes juxtaposition information that is information on whether or not the electronic device is installed side by side with other electronic devices as information on the installation mode of the electronic device,
    The predetermined association includes an association between juxtaposition information of the electronic device and control related to presentation of content by the electronic device installed in an installation mode indicated by the juxtaposition information,
    The control method according to any one of claims 1 to 9, wherein in the control relating to the presentation of the content, the control relating to the presentation of the content associated with the juxtaposition information of the electronic device is performed.
  11.  前記制御方法では、さらに、
     前記コンテンツの提示に関するログ情報を出力する
     請求項1~10のいずれか1項に記載の制御方法。
    In the control method, further,
    The control method according to any one of claims 1 to 10, wherein log information relating to presentation of the content is output.
  12.  電子機器の制御システムであって、
     前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得する取得部と、
     前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う制御処理部とを備える
     制御システム。
    An electronic device control system,
    An acquisition unit for acquiring environmental information of the electronic device, including information on an environment around the electronic device, or information on an installation mode of the electronic device;
    The presentation of content by the electronic device associated with the acquired environment information by referring to a predetermined association between the environmental information of the electronic device and the details of control related to the presentation of the content by the electronic device A control system comprising a control processing unit that performs control.
  13.  電子機器であって、
     前記電子機器の周囲の環境に関する情報、又は、前記電子機器の設置態様に関する情報を含む、前記電子機器の環境情報を取得する取得部と、
     前記電子機器の環境情報と、前記電子機器によるコンテンツの提示に関する制御の内容との所定の対応付けを参照することで、取得した前記環境情報に対応付けられた、前記電子機器によるコンテンツの提示に関する制御を行う制御処理部とを備える
     電子機器。
    Electronic equipment,
    An acquisition unit for acquiring environmental information of the electronic device, including information on an environment around the electronic device, or information on an installation mode of the electronic device;
    The presentation of content by the electronic device associated with the acquired environment information by referring to a predetermined association between the environmental information of the electronic device and the details of control related to the presentation of the content by the electronic device An electronic device comprising a control processing unit that performs control.
  14.  請求項1に記載の電子機器の制御方法をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute the electronic device control method according to claim 1.
PCT/JP2018/005616 2017-02-21 2018-02-19 Electronic device control method, electronic device control system, electronic device, and program WO2018155354A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762461439P 2017-02-21 2017-02-21
US62/461439 2017-02-21
JP2017189955A JP2020065097A (en) 2017-02-21 2017-09-29 Electronic device control method, electronic device control system, electronic device, and program
JP2017-189955 2017-09-29

Publications (1)

Publication Number Publication Date
WO2018155354A1 true WO2018155354A1 (en) 2018-08-30

Family

ID=63253805

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005616 WO2018155354A1 (en) 2017-02-21 2018-02-19 Electronic device control method, electronic device control system, electronic device, and program

Country Status (1)

Country Link
WO (1) WO2018155354A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110855549A (en) * 2019-10-28 2020-02-28 维沃移动通信有限公司 Message display method and terminal equipment
WO2021006065A1 (en) * 2019-07-11 2021-01-14 ソニー株式会社 Information processing system, information processing method, and recording medium
JP2021018499A (en) * 2019-07-17 2021-02-15 富士ゼロックス株式会社 Information processing system, information processing apparatus, and program
JP2021060826A (en) * 2019-10-07 2021-04-15 富士ゼロックス株式会社 Information processing apparatus and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002503896A (en) * 1998-01-05 2002-02-05 インテル・コーポレーション User profile based on access time
JP2004526374A (en) * 2001-03-29 2004-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for controlling a media player based on user behavior
JP2005221954A (en) * 2004-02-09 2005-08-18 Casio Comput Co Ltd Video display control device and program
JP2008123576A (en) * 2006-11-09 2008-05-29 Nec Corp Portable content reproducing device, reproduction system, content reproducing method
WO2010007987A1 (en) * 2008-07-15 2010-01-21 シャープ株式会社 Data transmission device, data reception device, method for transmitting data, method for receiving data, and method for controlling audio-visual environment
JP2011066516A (en) * 2009-09-15 2011-03-31 Sony Corp Display apparatus, and control method
JP2013026997A (en) * 2011-07-26 2013-02-04 Sony Corp Controller, control method, and program
JP2014106457A (en) * 2012-11-29 2014-06-09 Mitsubishi Electric Information Systems Corp Display control device, display control system, and display control program
JP2016504836A (en) * 2012-11-29 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for using user engagement to provide content presentation
JP2016536914A (en) * 2013-09-13 2016-11-24 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Streaming media transmission method and system, user equipment and server

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002503896A (en) * 1998-01-05 2002-02-05 インテル・コーポレーション User profile based on access time
JP2004526374A (en) * 2001-03-29 2004-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for controlling a media player based on user behavior
JP2005221954A (en) * 2004-02-09 2005-08-18 Casio Comput Co Ltd Video display control device and program
JP2008123576A (en) * 2006-11-09 2008-05-29 Nec Corp Portable content reproducing device, reproduction system, content reproducing method
WO2010007987A1 (en) * 2008-07-15 2010-01-21 シャープ株式会社 Data transmission device, data reception device, method for transmitting data, method for receiving data, and method for controlling audio-visual environment
JP2011066516A (en) * 2009-09-15 2011-03-31 Sony Corp Display apparatus, and control method
JP2013026997A (en) * 2011-07-26 2013-02-04 Sony Corp Controller, control method, and program
JP2014106457A (en) * 2012-11-29 2014-06-09 Mitsubishi Electric Information Systems Corp Display control device, display control system, and display control program
JP2016504836A (en) * 2012-11-29 2016-02-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for using user engagement to provide content presentation
JP2016536914A (en) * 2013-09-13 2016-11-24 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Streaming media transmission method and system, user equipment and server

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006065A1 (en) * 2019-07-11 2021-01-14 ソニー株式会社 Information processing system, information processing method, and recording medium
JP2021018499A (en) * 2019-07-17 2021-02-15 富士ゼロックス株式会社 Information processing system, information processing apparatus, and program
JP2021060826A (en) * 2019-10-07 2021-04-15 富士ゼロックス株式会社 Information processing apparatus and program
JP7467870B2 (en) 2019-10-07 2024-04-16 富士フイルムビジネスイノベーション株式会社 Information processing device and program
CN110855549A (en) * 2019-10-28 2020-02-28 维沃移动通信有限公司 Message display method and terminal equipment

Similar Documents

Publication Publication Date Title
JP6719535B2 (en) Information processing system, server system, information processing program, and information processing method
WO2018155354A1 (en) Electronic device control method, electronic device control system, electronic device, and program
JP6676309B2 (en) Electronic device, electronic device system, and device control method
US20220261211A1 (en) Multimedia Experience According to Biometrics
US11465030B2 (en) Reflective video display apparatus for interactive training and demonstration and methods of using same
CN110996796B (en) Information processing apparatus, method, and program
TW201217999A (en) Methods and apparatus for capturing ambience
US20130283325A1 (en) Entertainment System and Method for Displaying Multimedia Content
WO2017001706A1 (en) Wearable devices
US20180241582A1 (en) Control system, operation determining apparatus, device, control method, and control program
CN108292320A (en) Information processing unit, information processing method and program
US20180213290A1 (en) Contextual user interface based on media playback
CN110692218A (en) Method of using connected lighting systems
WO2018136299A1 (en) Contextual user interface based on shared activities
JP2020065097A (en) Electronic device control method, electronic device control system, electronic device, and program
US20210262680A1 (en) Personal environmental control system and method
WO2021079640A1 (en) Information processing device, information processing method, and artificial intelligence system
EP3607521B1 (en) Method and apparatus for monitoring usage of a lighting system
US20140278625A1 (en) Methods and systems for venue personalization
WO2023042423A1 (en) Information processing device, information processing method, and information processing program
JP2021052965A (en) Movie showing facility
JP2020009589A (en) Lighting system and lighting control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18756777

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18756777

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP