JP2019062270A - Device control apparatus, device control method, and device control system - Google Patents

Device control apparatus, device control method, and device control system Download PDF

Info

Publication number
JP2019062270A
JP2019062270A JP2017183398A JP2017183398A JP2019062270A JP 2019062270 A JP2019062270 A JP 2019062270A JP 2017183398 A JP2017183398 A JP 2017183398A JP 2017183398 A JP2017183398 A JP 2017183398A JP 2019062270 A JP2019062270 A JP 2019062270A
Authority
JP
Japan
Prior art keywords
user
control
unit
feature information
determination unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017183398A
Other languages
Japanese (ja)
Other versions
JP6711799B2 (en
Inventor
豊典 高木
Toyonori Takagi
豊典 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017183398A priority Critical patent/JP6711799B2/en
Publication of JP2019062270A publication Critical patent/JP2019062270A/en
Application granted granted Critical
Publication of JP6711799B2 publication Critical patent/JP6711799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To suppress erroneous detection of operation when a device is controlled based on a user's operation.SOLUTION: A control server 1 according to an embodiment of the present invention includes an operation detection unit 111 that detects operation of a user from an image obtained by imaging the user, a feature information acquisition unit 112 that acquires user's feature information, a user determination unit 113 that determines whether to allow the user to control a device 3 on the basis of the feature information acquired by the feature information acquisition unit 112, and a device control unit 114 that performs control of the device 3 on the basis of the operation detected by the operation detection unit 111 when the user determination unit 113 permits the user to control the device 3.SELECTED DRAWING: Figure 4

Description

本発明は、ユーザの動作に基づいて機器を制御する機器制御装置、機器制御方法及び機器制御システムに関する。   The present invention relates to an apparatus control apparatus, an apparatus control method, and an apparatus control system that control an apparatus based on a user's operation.

ユーザの動作(ジェスチャ)を検知することによって、住宅内に設置された様々な機器への指示を行う機器制御装置が開発されている。ここでユーザの動作とは、機器の操作部に対して直接操作を行うことではなく、機器の操作部から同一又は離れた空間でユーザが行う様々な動作をいう。機器制御装置はユーザが所定の動作を行ったことを検知すると、該動作に基づいて照明、空調機器、AV(Audio Visual)機器等の機器をオン又はオフにし、あるいは調節することができる。   There have been developed device control apparatuses that issue instructions to various devices installed in a house by detecting user's actions (gesture). Here, the operation of the user does not directly operate the operation unit of the device but refers to various operations performed by the user in the same space as or apart from the operation unit of the device. When the device control device detects that the user has performed a predetermined operation, it can turn on or off or adjust devices such as lighting, air conditioners, AV (Audio Visual) devices based on the operation.

特許文献1には、ユーザ端末において、ユーザが行った動作を検知し、該動作に関連付けられた相手との通信を開始する技術が記載されている。   Patent Document 1 describes a technique for detecting an operation performed by a user in a user terminal and starting communication with a partner associated with the operation.

特許第5820058号公報Patent No. 5820058

住宅には、様々なユーザが存在し得る。特に子供は、手を上げる、走る、跳ねる等の多彩な動きを行うことが多い。このように様々なユーザが存在する状況において、ユーザの動作に基づいて機器の制御を行う機器制御装置には、機器への指示が意図されていない動作を機器への指示として検出する等、動作の誤検出が発生しやすいという問題がある。   In a house, various users may exist. In particular, children often perform various movements such as raising their hands, running and jumping. In such a situation where various users exist, the device control apparatus that controls the device based on the user's operation detects an operation not intended to instruct the device as an instruction to the device, or the like. There is a problem that false detection of

しかしながら、特許文献1に記載の技術では、ユーザとユーザ端末とが一対一の関係にあることが前提となっているため、様々なユーザの動作を検知し得る状況は想定されておらず、動作の誤検出への対策は行われていない。   However, in the technology described in Patent Document 1, it is assumed that the user and the user terminal are in a one-to-one relationship, and a situation in which various user actions can be detected is not assumed, and the operation is No measures have been taken against false positive detection.

本発明は上述の点に鑑みてなされたものであり、ユーザの動作に基づいて機器の制御を行う際に、動作の誤検出を抑制可能な機器制御装置、機器制御方法及び機器制御システムを提供することを目的とする。   The present invention has been made in view of the above-described points, and provides an apparatus control apparatus, an apparatus control method, and an apparatus control system capable of suppressing erroneous detection of an operation when performing an apparatus control based on the user's operation. The purpose is to

本発明の第1の態様の機器制御装置は、ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、前記ユーザの特徴情報を取得する取得部と、前記取得部が取得した前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定する判定部と、前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、を有する。   A device control apparatus according to a first aspect of the present invention includes: a detection unit that detects an operation of the user from an image obtained by imaging a user; an acquisition unit that acquires characteristic information of the user; A determination unit that determines whether to permit control of the device to the user based on the acquired characteristic information, and the detection unit determines that the determination unit permits control of the device based on the acquired characteristic information And a device control unit configured to control the device based on the detected operation.

前記取得部は、前記ユーザの体の少なくとも一部の大きさを前記特徴情報として取得し、前記判定部は、前記大きさが所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit acquires the size of at least a part of the user's body as the feature information, and the determination unit controls the device to the user when the size is within a predetermined range. May be permitted.

前記取得部は、前記ユーザの声の特徴を示す情報を前記特徴情報として取得し、前記判定部は、前記声の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit acquires information indicating a feature of the voice of the user as the feature information, and the determination unit controls the device when the information indicating the feature of the voice satisfies a predetermined condition. You may allow

前記取得部は、前記ユーザの顔の特徴を示す情報を前記特徴情報として取得し、前記判定部は、前記顔の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit acquires information indicating the feature of the face of the user as the feature information, and the determination unit controls the device when the information indicating the feature of the face satisfies a predetermined condition. You may allow

前記取得部は、前記ユーザの体温を前記特徴情報として取得し、前記判定部は、前記体温が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit may acquire the temperature of the user as the feature information, and the determination unit may permit the user to control the device when the temperature is within a predetermined range.

前記取得部は、前記ユーザが所定のデバイスを所持しているか否かを前記特徴情報として取得し、前記判定部は、前記ユーザが前記所定のデバイスを所持している場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit acquires, as the characteristic information, whether or not the user holds a predetermined device, and the determination unit controls the device when the user holds the predetermined device. May be permitted to the user.

前記取得部は、前記ユーザの位置を前記特徴情報として取得し、前記判定部は、前記位置が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit may acquire the position of the user as the feature information, and the determination unit may permit the user to control the device when the position is within a predetermined range.

前記取得部は、前記ユーザによって前記動作が行われた時間帯を前記特徴情報として取得し、前記判定部は、前記時間帯が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit acquires, as the feature information, a time zone in which the operation is performed by the user, and the determination unit instructs the user to control the device when the time zone is within a predetermined range. May be permitted.

前記取得部は、前記ユーザの過去の動作を前記特徴情報として取得し、前記判定部は、前記過去の動作が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可してもよい。   The acquisition unit may acquire the past operation of the user as the feature information, and the determination unit may permit the user to control the device when the past operation satisfies a predetermined condition. .

前記検出部が複数の前記ユーザによる前記動作を検出した場合に、前記判定部は、前記取得部が取得した複数の前記ユーザの前記特徴情報に基づいて複数の前記ユーザのうち1人を選択し、選択した1人の前記ユーザに前記機器の制御を許可してもよい。   When the detection unit detects the motion by a plurality of the users, the determination unit selects one of the plurality of the users based on the feature information of the plurality of users acquired by the acquisition unit. The selected one user may be allowed to control the device.

前記画像中に複数の前記ユーザが存在する場合に、複数の前記ユーザのうち第1のユーザの前記特徴情報に基づいて、前記機器の制御を前記第1のユーザとは異なる第2のユーザに許可してもよい。   When there are a plurality of the users in the image, the control of the device is controlled to a second user different from the first user based on the characteristic information of the first user among the plurality of users. May be permitted.

前記検出部は、前記ユーザの第1の動作と、前記第1の動作の後に行われる前記ユーザの第2の動作とを前記動作として検出し、前記機器制御部は、前記第1の動作によって選択された前記機器に対して、前記第2の動作に対応する前記制御を行ってもよい。   The detection unit detects, as the operation, a first operation of the user and a second operation of the user performed after the first operation, and the device control unit detects the first operation by the first operation. The control corresponding to the second operation may be performed on the selected device.

本発明の第2の態様の機器制御方法は、ユーザを撮像することによって得られた画像から前記ユーザの動作を検出するステップと、前記ユーザの特徴情報を取得するステップと、前記取得するステップで取得された前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定するステップと、前記判定するステップで前記機器の制御が前記ユーザに許可される場合に、前記検出するステップで検出された前記動作に基づいて前記機器の制御を行う機器制御部と、を有する。   A device control method according to a second aspect of the present invention includes the steps of: detecting an operation of the user from an image obtained by imaging the user; acquiring characteristic information of the user; and acquiring the characteristic information of the user Based on the acquired characteristic information, determining whether to permit control of the device to the user, and detecting when control of the device is permitted to the user in the determining step And a device control unit configured to control the device based on the operation detected in the step.

本発明の第3の態様の機器制御システムは、機器と、前記機器を制御する機器制御装置とを備え、前記機器制御装置は、ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、前記ユーザの特徴情報を取得する取得部と、前記取得部が取得した前記特徴情報に基づいて、前記機器の制御を前記ユーザに許可するか否かを判定する判定部と、前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、を有し、前記機器は、前記機器制御部による前記制御に従って作動する。   An apparatus control system according to a third aspect of the present invention includes an apparatus and an apparatus control apparatus for controlling the apparatus, wherein the apparatus control apparatus operates the user based on an image obtained by imaging the user. A detection unit that detects, an acquisition unit that acquires characteristic information of the user, and a determination unit that determines whether to permit the user to control the device based on the characteristic information acquired by the acquisition unit And a device control unit configured to control the device based on the operation detected by the detection unit when the determination unit grants control of the device to the user, the device including the device It operates according to the said control by a control part.

本発明によれば、ユーザの動作に基づいて機器の制御を行う際に、動作の誤検出を抑制できる。   According to the present invention, it is possible to suppress erroneous detection of an operation when controlling a device based on the user's operation.

第1の実施形態に係る機器制御システムの模式図である。It is a schematic diagram of the apparatus control system which concerns on 1st Embodiment. 第1の実施形態に係る制御サーバが検出するユーザの動作を示す模式図である。It is a schematic diagram which shows the operation | movement of the user which the control server which concerns on 1st Embodiment detects. 第1の実施形態に係る制御サーバで用いられる制御データベースを示す模式図である。It is a schematic diagram which shows the control database used by the control server which concerns on 1st Embodiment. 第1の実施形態に係る機器制御システムのブロック図である。FIG. 2 is a block diagram of a device control system according to the first embodiment. 第1の実施形態に係る機器制御方法のフローチャートを示す図である。It is a figure which shows the flowchart of the apparatus control method which concerns on 1st Embodiment. 第1の実施形態に係るユーザ判定処理のフローチャートを示す図である。It is a figure which shows the flowchart of the user determination processing which concerns on 1st Embodiment. 第2の実施形態に係る機器制御システムの模式図である。It is a schematic diagram of the apparatus control system which concerns on 2nd Embodiment. 第3の実施形態に係る機器制御システムのブロック図である。It is a block diagram of the apparatus control system which concerns on 3rd Embodiment.

(第1の実施形態)
図1は、本実施形態に係る機器制御システムSの模式図である。機器制御システムSは、機器制御装置としての制御サーバ1と、様々な情報を取得する1つ又は複数のセンサ装置2と、制御サーバ1によって制御される1つ又は複数の機器3と、通信を仲介するゲートウェイ4と、を含む。機器制御システムSは、その他のサーバ、端末等の機器を含んでもよい。
First Embodiment
FIG. 1 is a schematic view of a device control system S according to the present embodiment. The device control system S communicates with the control server 1 as a device control device, one or more sensor devices 2 for acquiring various information, and one or more devices 3 controlled by the control server 1. And an intermediary gateway 4. The device control system S may include devices such as other servers and terminals.

機器3は、制御サーバ1からの制御信号を受けることによって、オン、オフ、調節等の制御がなされる被制御機器である。機器3として、照明、空調機器、AV機器等、任意の機器を用いることができる。機器3は、制御サーバ1による制御だけでなく、ユーザによる操作によって作動してもよい。機器3は、通信モジュールを有しており、有線通信又は無線通信によってゲートウェイ4を介して制御サーバ1と通信する。   The device 3 is a controlled device that is controlled to be turned on, off, adjusted, etc. by receiving a control signal from the control server 1. As the device 3, any device such as lighting, air conditioner, AV device, etc. can be used. The device 3 may operate not only by the control server 1 but also by an operation by the user. The device 3 has a communication module, and communicates with the control server 1 via the gateway 4 by wired communication or wireless communication.

センサ装置2は、画像、音声、温度等の情報を測定して取得する。センサ装置2は、情報の取得に必要な各種のセンサを有する。センサ装置2は機器3に内蔵されてもよく、あるいは独立して設置されてもよい。センサ装置2は、通信モジュールを有しており、有線通信又は無線通信によってゲートウェイ4を介して制御サーバ1と通信する。   The sensor device 2 measures and acquires information such as an image, a sound, and a temperature. The sensor device 2 has various sensors necessary for acquiring information. The sensor device 2 may be incorporated in the device 3 or may be installed independently. The sensor device 2 has a communication module, and communicates with the control server 1 via the gateway 4 by wired communication or wireless communication.

ゲートウェイ4は、センサ装置2、機器3及び制御サーバ1の間で授受される信号に対してプロトコル変換等の処理を行って通信可能にする中継装置である。ゲートウェイ4は、有線接続又は無線接続によってセンサ装置2及び機器3のそれぞれに接続され、またローカルエリアネットワーク、インターネット等の任意のネットワークNを介して制御サーバ1に接続される。   The gateway 4 is a relay device that performs processing such as protocol conversion on signals transmitted and received between the sensor device 2, the device 3, and the control server 1 to enable communication. The gateway 4 is connected to each of the sensor device 2 and the device 3 by wired connection or wireless connection, and is connected to the control server 1 via an arbitrary network N such as a local area network or the Internet.

制御サーバ1は、センサ装置2、機器3及びゲートウェイ4が設置されている建物の外部において、有線通信又は無線通信によってネットワークNに接続される。制御サーバ1は、単一のコンピュータ、又はコンピュータ資源の集合であるクラウドによって構成される。制御サーバ1は、センサ装置2が測定した情報を示す信号を、ゲートウェイ4を介して受信する。次に制御サーバ1は、センサ装置2からの情報に基づいて、制御対象の機器3及び制御内容を判定する。そして制御サーバ1は、制御内容を示す信号を、ゲートウェイ4を介して機器3へ送信する。   The control server 1 is connected to the network N by wire communication or wireless communication outside the building where the sensor device 2, the device 3 and the gateway 4 are installed. The control server 1 is configured by a single computer or a cloud that is a collection of computer resources. The control server 1 receives a signal indicating the information measured by the sensor device 2 via the gateway 4. Next, the control server 1 determines the device 3 to be controlled and the control content based on the information from the sensor device 2. Then, the control server 1 transmits a signal indicating the control content to the device 3 via the gateway 4.

[ユーザの動作の説明]
図2(a)、図2(b)は、本実施形態に係る制御サーバ1が検出するユーザの動作を示す模式図である。ユーザの動作は、特定動作及び調整動作を含む。特定動作(第1の動作)は制御対象の機器3を指定する動作であり、調整動作(第2の動作)は制御内容を指定する動作である。
[Description of user operation]
FIG. 2A and FIG. 2B are schematic views showing the operation of the user detected by the control server 1 according to the present embodiment. The actions of the user include specific actions and adjustment actions. The specific operation (first operation) is an operation for specifying the device 3 to be controlled, and the adjustment operation (second operation) is an operation for specifying control content.

図2(a)の例では、特定動作は制御対象の機器3に向けて指を差す行為であり、調整動作は特定動作の後に手を開く行為(すなわち手をパーの形にすること)である。これにより、制御サーバ1は、指差し方向(すなわち指の延長線上)に位置する機器3を制御対象として選択し、手を開く行為に対応する制御内容(例えば機器3をオンにすること)を決定する。   In the example of FIG. 2A, the specific action is an action of pointing a finger toward the device 3 to be controlled, and the adjustment action is an action of opening the hand after the specific action (that is, forming a hand shape). is there. Thereby, the control server 1 selects the device 3 located in the pointing direction (that is, the extension of the finger) as a control target, and the control content (for example, turning on the device 3) corresponding to the action of opening the hand. decide.

調整動作は、特定動作の後に手の形状を変化させたり、手を動かしたりする行為である。図2(b)の例では、特定動作はユーザが特定のソファ上に寝る行為であり、調整動作は特定動作の後に手を握る行為(すなわち手をグーの形にすること)である。これにより、制御サーバ1は、ソファに関連付けられた機器3(例えばソファの上方に位置する照明)を制御対象として選択し、手を握る行為に対応する制御内容(例えば機器3をオフにすること)を決定する。   The adjustment operation is an action of changing the shape of the hand or moving the hand after the specific operation. In the example of FIG. 2 (b), the specific action is an action of the user sleeping on a specific sofa, and the adjustment action is an action of holding a hand after the specific action (i.e., forming a hand). Thereby, the control server 1 selects the device 3 (for example, the illumination located above the sofa) associated with the sofa as the control target, and turns off the control content (for example, the device 3) corresponding to the action of holding the hand. To determine).

図2(a)、図2(b)に示したユーザの動作は一例であり、制御サーバ1はユーザを撮像して得られた画像から判定可能な所定の動作を検出するように構成される。ユーザの動作として、特定動作及び調整動作の2つの動作に限らず、制御対象及び制御内容を同時に指定する1つの動作を用いてもよく、あるいは3つ以上の動作を組み合わせて用いてもよい。   The operation of the user shown in FIGS. 2A and 2B is an example, and the control server 1 is configured to detect a predetermined operation that can be determined from an image obtained by imaging the user. . The operation of the user is not limited to the two operations of the specific operation and the adjustment operation, but one operation of simultaneously specifying the control target and the control content may be used, or three or more operations may be used in combination.

[制御データベースDの説明]
図3は、本実施形態に係る制御サーバ1で用いられる制御データベースDを示す模式図である。制御データベースDは、ユーザの動作から制御対象の機器3及び制御内容を決定するための情報である。制御データベースDは、機器番号D1、位置情報D2、特定動作D3及び調整動作D4を関連付けて記憶する。
[Description of control database D]
FIG. 3 is a schematic view showing a control database D used by the control server 1 according to the present embodiment. The control database D is information for determining the device 3 to be controlled and the control content from the operation of the user. The control database D stores the device number D1, the position information D2, the specific operation D3 and the adjustment operation D4 in association with each other.

機器番号D1は、機器3を識別するための番号である。機器番号D1は、例えば登録された機器3の通し番号でもよく、機器3に予め付与されたMAC(Media Access Control)アドレス等でもよい。   The device number D1 is a number for identifying the device 3. The device number D1 may be, for example, a serial number of the registered device 3, or may be a MAC (Media Access Control) address previously assigned to the device 3.

位置情報D2は、機器3の位置を示す情報であり、例えば建物の所定の点を基準とした3次元座標X、Y、Zで表される。機器3の位置は、ユーザによって指差しの動作が行われた際に、指差し方向に位置する機器3を特定するために使用される。機器3の位置は、例えばセンサ装置2によって機器3を撮像して得られた画像から制御サーバ1が推定する。あるいは、ユーザが携帯端末のアプリケーション等を用いて各機器3の位置を制御サーバ1に設定してもよい。この場合には、例えばユーザはアプリケーション上で座標情報を入力する、あるいはアプリケーションに表示された建物内のマップにマークをつけることによって、機器3の位置を制御サーバ1に設定する。本実施形態では3次元座標を用いているが、高さ方向の座標を除いて2次元座標を用いてもよい。この場合には、高さを区別せずに水平方向の位置によって機器3が特定される。   The position information D2 is information indicating the position of the device 3, and is represented by, for example, three-dimensional coordinates X, Y, Z based on a predetermined point of a building. The position of the device 3 is used to identify the device 3 located in the pointing direction when the pointing operation is performed by the user. For example, the control server 1 estimates the position of the device 3 from an image obtained by imaging the device 3 with the sensor device 2. Alternatively, the user may set the position of each device 3 in the control server 1 using an application of a portable terminal or the like. In this case, for example, the user inputs coordinate information on the application or marks the map in the building displayed on the application to set the position of the device 3 in the control server 1. Although three-dimensional coordinates are used in this embodiment, two-dimensional coordinates may be used except for the coordinate in the height direction. In this case, the device 3 is identified by the horizontal position without distinguishing the height.

特定動作D3は、制御対象の機器3を指定する動作を示す情報である。特定動作D3として、例えば図2(a)に示した指を差すこと、図2(b)に示した特定の場所で特定の動作をすること等を用いることができる。1つの機器3(機器番号D1)に対して、複数の特定動作D3が設定されてもよい。   The specific operation D3 is information indicating an operation of specifying the device 3 to be controlled. As the specific operation D3, it is possible to use, for example, pointing at the finger shown in FIG. 2A, or performing a specific operation at a specific place shown in FIG. 2B. A plurality of specific operations D3 may be set for one device 3 (device number D1).

調整動作D4は、制御内容を指定する動作を示す情報である。調整動作D4として、例えば図2(a)に示した手を開くこと、図2(b)に示した手を握ることのほか、手を特定の形状にして特定の方向に動かすこと等を用いることができる。調整動作D4が指定する制御内容として、オン、オフ、調節等、機器3が実行可能ないずれかの作動を用いることができる。1つの機器3(機器番号D1)に対して、複数の調整動作D4が設定されてもよい。   The adjustment operation D4 is information indicating an operation of specifying the control content. As the adjustment operation D4, for example, the hand shown in FIG. 2A, the hand held in FIG. 2B, the hand having a specific shape and moving in a specific direction, etc. are used. be able to. As control contents designated by the adjustment operation D4, any operation that can be executed by the device 3, such as on, off, adjustment, can be used. A plurality of adjustment operations D4 may be set for one device 3 (device number D1).

各機器3に対する特定動作D3及び調整動作D4は、予め制御サーバ1に設定されてもよい。あるいはユーザが携帯端末のアプリケーション等を用いて各機器3に対する任意の特定動作D3及び調整動作D4を制御サーバ1に設定してもよい。   The specific operation D3 and the adjustment operation D4 for each device 3 may be set in the control server 1 in advance. Alternatively, the user may set an arbitrary specific operation D3 and adjustment operation D4 for each device 3 in the control server 1 using an application or the like of the portable terminal.

図3に示した制御データベースDは一例であり、制御データベースDの内容及び形式は、本実施形態に係る機器制御方法で利用可能である限り任意に設定される。図3において、制御データベースDは視認性のために文字列の表で表されているが、制御サーバ1が解釈可能な任意のデータ形式(ファイル形式)で表されてもよく、例えばバイナリデータ又はテキストデータでよい。制御データベースDは制御サーバ1の内部に記憶されてもよく、制御サーバ1の外部の記憶装置に記憶されてもよい。   The control database D shown in FIG. 3 is an example, and the contents and format of the control database D are arbitrarily set as long as they can be used in the device control method according to the present embodiment. In FIG. 3, the control database D is represented by a table of character strings for visibility, but may be represented by any data format (file format) interpretable by the control server 1, for example, binary data or It may be text data. The control database D may be stored inside the control server 1 or may be stored in a storage device outside the control server 1.

[機器制御システムSの構成]
図4は、本実施形態に係る機器制御システムSのブロック図である。図4において、矢印は主なデータの流れを示しており、図4に示したもの以外のデータの流れがあってよい。図4において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図4に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of Device Control System S]
FIG. 4 is a block diagram of the device control system S according to the present embodiment. In FIG. 4, arrows indicate the flow of main data, and there may be flows of data other than those shown in FIG. In FIG. 4, each block is not a hardware (apparatus) -based configuration but a function-based configuration. As such, the blocks shown in FIG. 4 may be implemented in a single device or may be implemented separately in multiple devices. Transfer of data between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, and the like.

センサ装置2は、画像センサ21と、距離センサ22と、音声センサ23と、温度センサ24と、を有する。画像センサ21は、撮像した画像を示す情報を出力する撮像素子を有するカメラである。距離センサ22は、例えば赤外線や超音波を被写体(ユーザ)に照射することによって測定した距離を示す情報を出力するセンサである。距離センサ22は、複数の方向に対して距離の測定を行い、いずれの方向への距離であるかを特定できるように構成されることが望ましい。距離センサ22を省略し、制御サーバ1は画像センサ21によって撮像された画像からユーザへの距離を算出してもよい。この場合には、制御サーバ1は、複数の画像センサ21によって複数の方向から撮像された画像から、ユーザの位置を推定する。   The sensor device 2 includes an image sensor 21, a distance sensor 22, an audio sensor 23, and a temperature sensor 24. The image sensor 21 is a camera having an imaging element that outputs information indicating a captured image. The distance sensor 22 is a sensor that outputs information indicating a distance measured by irradiating, for example, an infrared ray or an ultrasonic wave to a subject (user). It is desirable that the distance sensor 22 be configured to be able to measure distances in a plurality of directions and to identify in which direction the distance is. The distance sensor 22 may be omitted, and the control server 1 may calculate the distance to the user from the image captured by the image sensor 21. In this case, the control server 1 estimates the position of the user from the images captured from a plurality of directions by the plurality of image sensors 21.

音声センサ23は、周囲から取得した音声を示す情報を出力するマイクロフォンである。音声センサ23は、例えば複数の指向性マイクロフォンを搭載し、いずれの方向からの音声であるかを特定できるように構成されることが望ましい。温度センサ24は、周囲から取得した温度を示す情報を出力するセンサである。温度センサ24は、例えば複数の放射温度計を搭載し、いずれの方向の温度であるかを特定できるように構成されることが望ましい。センサ21〜24からのアナログ信号のデジタルデータへの変換は、各センサ内で行われてもよく、制御サーバ1によって行われてもよい。   The voice sensor 23 is a microphone that outputs information indicating voices obtained from the surroundings. It is desirable that the voice sensor 23 be equipped with, for example, a plurality of directional microphones and configured to be able to identify which direction the voice is from. The temperature sensor 24 is a sensor that outputs information indicating the temperature obtained from the surroundings. The temperature sensor 24 is preferably configured to be equipped with, for example, a plurality of radiation thermometers, and to identify in which direction the temperature is. The conversion of analog signals from the sensors 21 to 24 into digital data may be performed in each sensor or may be performed by the control server 1.

制御サーバ1は、制御部11と、通信部12と、記憶部13と、を有する。制御部11は、動作検出部111と、特徴情報取得部112と、ユーザ判定部113と、機器制御部114とを有する。   The control server 1 includes a control unit 11, a communication unit 12, and a storage unit 13. The control unit 11 includes an operation detection unit 111, a feature information acquisition unit 112, a user determination unit 113, and a device control unit 114.

通信部12は、ゲートウェイ4を介してセンサ装置2及び機器3との間で通信をするための通信インターフェースである。通信部12は、センサ装置2及び機器3から受信した通信信号に所定の処理を行ってデータを取得し、取得したデータを制御部11に入力する。また、通信部12は、制御部11から入力されたデータに所定の処理を行って通信信号を生成し、生成した通信信号をセンサ装置2及び機器3に送信する。   The communication unit 12 is a communication interface for communicating with the sensor device 2 and the device 3 via the gateway 4. The communication unit 12 performs predetermined processing on communication signals received from the sensor device 2 and the device 3 to acquire data, and inputs the acquired data to the control unit 11. Further, the communication unit 12 performs predetermined processing on the data input from the control unit 11 to generate a communication signal, and transmits the generated communication signal to the sensor device 2 and the device 3.

記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを予め記憶している。   The storage unit 13 is a storage medium including a read only memory (ROM), a random access memory (RAM), a hard disk drive, and the like. The storage unit 13 stores in advance a program to be executed by the control unit 11.

制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部13に記憶されたプログラムを実行することにより、動作検出部111、特徴情報取得部112、ユーザ判定部113及び機器制御部114として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。   The control unit 11 is, for example, a processor such as a CPU (Central Processing Unit), and executes the program stored in the storage unit 13 to obtain an operation detection unit 111, a feature information acquisition unit 112, a user determination unit 113, and device control. It functions as the unit 114. At least a part of the functions of the control unit 11 may be performed by an electric circuit. In addition, at least a part of the functions of the control unit 11 may be executed by a program executed via a network.

本実施形態に係る機器制御システムSは、図4に示す具体的な構成に限定されない。例えば制御サーバ1は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。   The device control system S according to the present embodiment is not limited to the specific configuration shown in FIG. For example, the control server 1 is not limited to one device, and may be configured by connecting two or more physically separated devices in a wired or wireless manner.

動作検出部111は、センサ装置2によって撮像された画像が示すユーザの動作に基づいて、制御対象の機器3及び制御内容を決定する。具体的には、まず動作検出部111は、通信部12を介してセンサ装置2からの情報を受信する。動作検出部111は、受信した情報からセンサ装置2の画像センサ21によって撮像された画像を取得する。動作検出部111は、取得した画像に対して3次元認識の画像解析技術を適用し、ユーザの動作及び位置を検出する。3次元認識の画像解析技術として、公知の技術を用いることができる。制御データベースDに含まれるいずれかの特定動作(すなわち特定動作D3)に合致する動作が検出されるまで、動作検出部111は動作の検出を繰り返す。   The motion detection unit 111 determines the device 3 to be controlled and the control content based on the motion of the user indicated by the image captured by the sensor device 2. Specifically, first, the operation detection unit 111 receives information from the sensor device 2 via the communication unit 12. The motion detection unit 111 acquires an image captured by the image sensor 21 of the sensor device 2 from the received information. The motion detection unit 111 applies an image analysis technique of three-dimensional recognition to the acquired image to detect a motion and a position of the user. Known techniques can be used as image analysis techniques for three-dimensional recognition. The operation detection unit 111 repeats the detection of the operation until an operation that matches any of the specific operations (that is, the specific operation D3) included in the control database D is detected.

指差しの特定動作が検出された場合に、動作検出部111は、制御データベースDにおける各機器3の位置情報D2から、検出されたユーザの位置を起点とした指の延長線上に位置する機器3(すなわち機器番号D1)を制御対象として決定する。その他の特定動作(図3におけるソファに寝ること等)が検出された場合に、動作検出部111は、制御データベースDにおいて該特定動作に関連付けられている機器3を制御対象として決定する。   When a finger pointing specific motion is detected, the motion detection unit 111 determines from the position information D2 of each device 3 in the control database D the device 3 positioned on the extension of the finger starting from the detected user position. (Ie, the device number D1) is determined as the control target. When another specific operation (such as sleeping on the sofa in FIG. 3) is detected, the operation detection unit 111 determines the device 3 associated with the specific operation in the control database D as a control target.

制御対象が決定された後、動作検出部111は、次のフレーム(あるいは所定時間後)の画像を取得して、同様に3次元認識の画像解析技術を適用し、ユーザの動作を検出する。制御データベースDに含まれるいずれかの調整動作(すなわち調整動作D4)に合致する動作が検出されるまで、動作検出部111は動作の検出を繰り返す。特定動作が検出された後、所定時間経過しても調整動作が検出されない場合には、動作検出部111は特定動作の検出に戻る。調整動作が検出された場合に、動作検出部111は、制御データベースDにおいて該調整動作が指定する内容(オン、オフ、調節等)を制御内容として決定する。   After the control target is determined, the motion detection unit 111 acquires an image of the next frame (or after a predetermined time), applies the image analysis technology of three-dimensional recognition in the same manner, and detects the motion of the user. The operation detection unit 111 repeats the detection of the operation until an operation that matches any of the adjustment operations (that is, the adjustment operation D4) included in the control database D is detected. After the specific operation is detected, if the adjustment operation is not detected even after a predetermined time has elapsed, the operation detection unit 111 returns to the detection of the specific operation. When the adjustment operation is detected, the operation detection unit 111 determines the content (on, off, adjustment, etc.) designated by the adjustment operation in the control database D as the control content.

動作の誤検出を抑制するために、動作検出部111は、同一の動作が所定時間継続された場合に、該動作に合致する特定動作又は調整動作を検出してもよい。   In order to suppress erroneous detection of an operation, the operation detection unit 111 may detect a specific operation or an adjustment operation that matches the operation when the same operation is continued for a predetermined time.

動作検出部111がユーザの動作に関連付けられた制御対象及び制御内容を決定した場合に、特徴情報取得部112は、センサ装置2からの画像、距離、音声及び温度を、通信部12を介して受信してユーザの特徴情報として取得する。   When the operation detection unit 111 determines the control target and control content associated with the user's operation, the feature information acquisition unit 112 transmits the image, the distance, the sound, and the temperature from the sensor device 2 via the communication unit 12. It receives and acquires it as user's feature information.

ユーザ判定部113は、特徴情報取得部112が取得した特徴情報に基づいて、動作検出部111が決定した制御対象及び制御内容の実行を、動作を行ったユーザに許可するか否か判定する。具体的には、ユーザ判定部113は、特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータを用いて、制御の許可又は拒否を判定する。   Based on the feature information acquired by the feature information acquisition unit 112, the user determination unit 113 determines whether to permit the user who performed the operation to execute the control target and control content determined by the operation detection unit 111. Specifically, the user determination unit 113 determines permission or rejection of control using parameters of the user's face, voice, body size, body temperature, and past movement extracted from the feature information.

ユーザの顔を用いた判定を行うために、記憶部13には、動作による制御を許可するユーザの顔情報が予め記憶される。記憶部13に記憶される顔情報は、顔画像でもよく、顔画像から算出された特徴量でもよい。ユーザ判定部113は、人物認識技術を用いて、特徴情報取得部112が取得した特徴情報が示す画像から、動作検出部111が動作を検出したユーザの顔領域を特定し、記憶部13に予め登録された各ユーザの顔情報と比較する。人物認識技術として、公知の技術を用いることができる。そしてユーザ判定部113は、画像中の顔領域が記憶部13に予め登録されたいずれかのユーザの顔情報に合致する場合に制御を許可し、そうでない場合に制御を拒否する。   In order to make the determination using the face of the user, the storage unit 13 stores in advance face information of the user who is permitted to control by the operation. The face information stored in the storage unit 13 may be a face image or a feature amount calculated from the face image. The user determination unit 113 specifies the face area of the user whose motion has been detected by the motion detection unit 111 from the image indicated by the feature information acquired by the feature information acquisition unit 112 using a person recognition technology, Compare with face information of each registered user. A well-known technique can be used as a person recognition technique. Then, the user determination unit 113 permits the control when the face area in the image matches the face information of any user registered in the storage unit 13 in advance, and rejects the control when not.

別の方法として、ユーザ判定部113は、人物認識技術によって、画像中の顔領域から年齢を推定し、推定した年齢が所定の範囲内(例えば所定値以上)である場合に制御を許可し、そうでない場合に制御を拒否してもよい。人物認識技術として、公知の技術を用いることができる。   As another method, the user determination unit 113 estimates the age from the face area in the image by person recognition technology, and permits control when the estimated age is within a predetermined range (for example, a predetermined value or more), Otherwise, control may be denied. A well-known technique can be used as a person recognition technique.

ユーザの声を用いた判定を行うために、記憶部13には、動作による制御を許可するユーザの声情報が予め記憶される。記憶部13に記憶される声情報は、音声データでもよく、声から算出された特徴量(声紋)でもよい。ユーザ判定部113は、特徴情報が示す複数の方向の音声のうち、動作検出部111が動作を検出したユーザが位置する方向の音声を、ユーザの声と推定する。次にユーザ判定部113は、音声分析技術を用いて、推定したユーザの声を、記憶部13に予め登録された各ユーザの声情報と比較する。音声分析技術として、公知の技術を用いることができる。そしてユーザ判定部113は、推定したユーザの声が記憶部13に予め登録されたいずれかのユーザの声情報に合致する場合に制御を許可し、そうでない場合に制御を拒否する。   In order to make a determination using the voice of the user, voice information of the user who permits control by the operation is stored in advance in the storage unit 13. The voice information stored in the storage unit 13 may be voice data, or may be a feature value (voiceprint) calculated from the voice. The user determination unit 113 estimates the voice in the direction in which the user whose motion is detected by the motion detection unit 111 among voices in a plurality of directions indicated by the feature information is the voice of the user. Next, the user determination unit 113 compares the estimated user's voice with the voice information of each user registered in advance in the storage unit 13 using voice analysis technology. Known techniques can be used as speech analysis techniques. Then, the user determination unit 113 permits the control when the estimated user's voice matches the voice information of any user registered in the storage unit 13 in advance, and rejects the control otherwise.

別の方法として、ユーザ判定部113は、音声分析技術によって、音声から年齢を推定し、推定した年齢が所定の範囲内(例えば所定値以上)である場合に制御を許可し、そうでない場合に制御を拒否してもよい。音声分析技術として、公知の技術を用いることができる。   As another method, the user determination unit 113 estimates the age from speech using speech analysis technology, and permits control when the estimated age is within a predetermined range (for example, a predetermined value or more), otherwise, You may deny control. Known techniques can be used as speech analysis techniques.

ユーザの体の大きさを用いた判定を行うために、ユーザ判定部113は、人体検出技術を用いて、特徴情報取得部112が取得した特徴情報が示す画像から、動作検出部111が動作を検出したユーザの人体領域を特定し、さらにセンサ装置2から特定した人体領域までの距離を特徴情報取得部112が取得した特徴情報が示す距離から特定する。人体検出技術として、公知の技術を用いることができる。   In order to make a determination using the size of the user's body, the user determination unit 113 uses the human body detection technology to operate the motion detection unit 111 from the image indicated by the feature information acquired by the feature information acquisition unit 112. The detected human body area of the user is specified, and the distance from the sensor device 2 to the specified human body area is specified from the distance indicated by the feature information acquired by the feature information acquisition unit 112. Known techniques can be used as human body detection techniques.

具体的には、ユーザ判定部113は、特徴情報が示す複数の方向の距離のうち、動作検出部111が動作を検出したユーザが位置する方向の距離を、人体領域までの距離として特定する。そしてユーザ判定部113は、特定した人体領域の画像中の大きさと、特定した距離とから、3次元空間におけるユーザの実際の大きさを推定する。ユーザの大きさとして、ユーザの体全体の大きさ(例えば身長)、あるいはユーザの体の一部(例えば手の平)の大きさを用いることができる。ユーザ判定部113は、推定したユーザの大きさ(例えば身長又は手の平の大きさ)が所定の範囲内(例えば所定値以上)である場合に制御を許可し、そうでない場合に制御を拒否する。   Specifically, the user determination unit 113 specifies the distance in the direction in which the user whose motion is detected by the motion detection unit 111 among the distances in the plurality of directions indicated by the feature information is the distance to the human body region. Then, the user determination unit 113 estimates the actual size of the user in the three-dimensional space from the size in the image of the specified human body region and the specified distance. As the size of the user, the size of the user's entire body (for example, height) or the size of a part of the user's body (for example, palm) can be used. The user determination unit 113 permits the control when the estimated user size (for example, the height or the palm size) is within a predetermined range (for example, a predetermined value or more), and rejects the control otherwise.

ユーザの体温を用いた判定を行うために、ユーザ判定部113は、特徴情報取得部112が取得した特徴情報が示す温度から、動作検出部111が動作を検出したユーザの体温(皮膚温)を推定する。具体的には、ユーザ判定部113は、特徴情報が示す複数の方向の温度のうち、動作検出部111が動作を検出したユーザが位置する方向の温度を、ユーザの体温と推定する。そしてユーザ判定部113は、推定したユーザの体温が所定の範囲内(例えば所定値以下)である場合に制御を許可し、そうでない場合に制御を拒否する。   From the temperature indicated by the feature information acquired by the feature information acquisition unit 112, the user determination unit 113 determines the body temperature (skin temperature) of the user whose operation has been detected by the operation detection unit 111, in order to perform determination using the user's body temperature. presume. Specifically, the user determination unit 113 estimates the temperature in the direction in which the user whose operation is detected by the operation detection unit 111 among the temperatures in the plurality of directions indicated by the feature information is the user's body temperature. Then, the user determination unit 113 permits control when the estimated user's body temperature is within a predetermined range (for example, less than or equal to a predetermined value), and rejects control otherwise.

ユーザの過去の動きを用いた判定を行うために、記憶部13には、特徴情報取得部112が取得した特徴情報が示す画像中のユーザの過去の所定時間内の動き(移動)が記憶される。ユーザの動きとして、上述の人体検出技術を用いて検出された人体の時系列の位置を用いることができる。ユーザ判定部113は、動作検出部111が動作を検出したユーザの過去の所定時間内の動きを記憶部13から取得し、動きの速さ及び方向を算出する。そしてユーザ判定部113は、算出したユーザの動きの速さ及び方向が所定の条件(例えば速さが所定値以下、かつ方向が水平方向)を満たす場合に制御を許可し、そうでない場合に制御を拒否する。   In order to perform determination using the past motion of the user, the storage unit 13 stores the motion (movement) of the user in the past predetermined time in the image indicated by the feature information acquired by the feature information acquisition unit 112 Ru. As the movement of the user, the time-series position of the human body detected using the above-described human body detection technique can be used. The user determination unit 113 acquires, from the storage unit 13, the motion of the user whose motion has been detected by the motion detection unit 111 within the past predetermined time, and calculates the speed and direction of the motion. Then, the user determination unit 113 permits control when the calculated speed and direction of movement of the user satisfy a predetermined condition (for example, the speed is equal to or less than a predetermined value and the direction is horizontal). Reject

ユーザが座ったり立ったりすることによって、ユーザの見かけの身長は変化する。ユーザ判定部113は、ユーザの身長を適切に判定するために、ユーザの過去の動きを用いてもよい。この場合には、ユーザ判定部113は、動作検出部111が動作を検出したユーザの過去の所定時間内の動きを記憶部13から取得し、該動き(例えば同じ位置で上下方向に動いたこと)からユーザが座ったこと又は立ったことを判定する。そしてユーザ判定部113は、ユーザが座っていると判定する場合には、画像から推定した見かけの身長を大きく(例えば1.5倍に)補正する。   The apparent height of the user changes as the user sits and stands. The user determination unit 113 may use the past motion of the user to appropriately determine the height of the user. In this case, the user determination unit 113 acquires, from the storage unit 13, the motion within the past predetermined time of the user whose motion is detected by the motion detection unit 111, and the motion (for example, moving in the vertical direction at the same position) ) To determine that the user has sat or stood. Then, when it is determined that the user is sitting, the user determination unit 113 corrects the apparent height estimated from the image to a large size (for example, 1.5 times).

ユーザ判定部113は、上述のユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータの全てが条件を満たす場合に制御の許可を判定してもよく、それらのパラメータのうち一部が条件を満たす場合に制御の許可を判定してもよい。制御の許可の判定のためにより多くの条件を用いるほど、誤検出を抑止する精度が向上するため好ましい。   The user determination unit 113 may determine permission of control when all of the parameters of the user's face, voice, body size, body temperature, and past motion satisfy the conditions described above, and one of the parameters may be selected. The permission of control may be determined when the unit satisfies the condition. It is preferable to use more conditions for determining permission of control, since the accuracy of suppressing false detection is improved.

機器制御部114は、ユーザ判定部113がユーザによる制御を許可することを判定した場合に、動作検出部111によって決定された制御内容に従って制御を行うための制御信号を生成し、通信部12を介して動作検出部111によって決定された制御対象の機器3に送信する。   When the user determination unit 113 determines that the user's control is permitted, the device control unit 114 generates a control signal for performing control in accordance with the control content determined by the operation detection unit 111, and causes the communication unit 12 to It transmits to the apparatus 3 of the control object determined by the operation | movement detection part 111 via.

機器3は、ゲートウェイ4を介して制御サーバ1から受信した制御信号に従って、オン、オフ、調節等の所定の作動を行う。   The device 3 performs predetermined operations such as on, off, and adjustment in accordance with the control signal received from the control server 1 via the gateway 4.

このように、本実施形態に係る制御サーバ1は、動作(ジェスチャ)を行ったユーザの特徴情報に基づいて、動作による機器3の制御を許可するか否か判定するため、例えば子どもの動作によって意図しない制御が行われることを抑制することができる。   As described above, the control server 1 according to the present embodiment determines, based on the feature information of the user who performed the operation (gesture), whether or not to permit control of the device 3 by the operation, for example, by the operation of the child Unintended control can be suppressed.

センサ装置2から制御サーバ1へ画像を常時送信すると通信負荷が大きいため、センサ装置2は、画像から所定の動作(特定動作及び調整動作)に近い動作を検出した場合にのみ、制御サーバ1への画像の送信を開始してもよい。この場合には、センサ装置2は動作検知ソフトウェアを実行するコンピュータとして構成され、特定動作及び調整動作に近い動作を予め登録する。センサ装置2は、該動作検知ソフトウェアを用いて、画像センサ21が撮像した画像から予め登録された動作を検知した場合に、制御サーバ1への画像の送信を開始する。これにより、センサ装置2から制御サーバ1へ送信されるデータの通信量を低減することができる。   If an image is constantly transmitted from the sensor device 2 to the control server 1, the communication load is large. Therefore, the sensor device 2 only detects an operation close to a predetermined operation (specific operation and adjustment operation) from the image. The transmission of the image of may be started. In this case, the sensor device 2 is configured as a computer that executes the operation detection software, and registers in advance an operation close to the specific operation and the adjustment operation. The sensor device 2 starts transmission of an image to the control server 1 when detecting a previously registered operation from an image captured by the image sensor 21 using the operation detection software. Thereby, the amount of communication of data transmitted from the sensor device 2 to the control server 1 can be reduced.

[機器制御方法のフローチャート]
図5は、本実施形態に係る機器制御方法のフローチャートを示す図である。図5のフローチャートは、例えばユーザが制御サーバ1に対して所定の開始操作を行うことによって開始される。
[Flowchart of Device Control Method]
FIG. 5 is a diagram showing a flowchart of the device control method according to the present embodiment. The flowchart of FIG. 5 is started, for example, when the user performs a predetermined start operation on the control server 1.

まず動作検出部111は、センサ装置2によって撮像された画像からユーザの動作(すなわち上述の特定動作及び調整動作)を検出し、検出した動作に基づいて制御対象の機器3及び制御内容を決定する(S1)。   First, the operation detection unit 111 detects the user's operation (that is, the above-described specific operation and adjustment operation) from the image captured by the sensor device 2, and determines the device 3 to be controlled and the control content based on the detected operation. (S1).

ステップS1で動作検出部111が動作を検出しない場合に(S2のNO)、制御サーバ1はステップS1に戻って処理を繰り返す。ステップS1で動作検出部111が動作を検出した場合に(S2のYES)、制御サーバ1は図6で後述するユーザ判定処理を実行する(S3)。   When the operation detection unit 111 does not detect an operation in step S1 (NO in S2), the control server 1 returns to step S1 and repeats the process. When the operation detection unit 111 detects an operation in step S1 (YES in S2), the control server 1 executes a user determination process described later with reference to FIG. 6 (S3).

ステップS3のユーザ判定処理で制御が許可された場合に(S4のYES)、機器制御部114は、S1で動作に基づいて決定された制御内容に従って制御を行うための制御信号を生成し、S1で動作に基づいて決定された制御対象の機器3に通信部12を介して送信する(S5)。ステップS3のユーザ判定処理で制御が拒否された場合に(S4のNO)、制御サーバ1はステップS5を行わずに次に進む。   When control is permitted in the user determination process of step S3 (YES in S4), the device control unit 114 generates a control signal for performing control in accordance with the control content determined based on the operation in S1, and S1 It transmits via the communication part 12 to the apparatus 3 of the control object determined based on operation | movement by (S5). If the control is rejected in the user determination process of step S3 (NO in S4), the control server 1 proceeds to the next step without performing step S5.

所定の終了条件(例えばユーザが制御サーバ1に対して所定の終了操作を行うこと)が満たされない場合に(S6のNO)、制御サーバ1はステップS1に戻って処理を繰り返す。所定の終了条件が満たされる場合に(S6のYES)、制御サーバ1は処理を終了する。   If a predetermined termination condition (for example, the user performs a predetermined termination operation on the control server 1) is not satisfied (NO in S6), the control server 1 returns to step S1 and repeats the processing. If the predetermined termination condition is satisfied (YES in S6), the control server 1 terminates the process.

[ユーザ判定処理のフローチャート]
図6は、本実施形態に係るユーザ判定処理のフローチャートを示す図である。図6のフローチャートは、図5の機器制御方法のステップS3で実行される。
[Flowchart of user determination processing]
FIG. 6 is a view showing a flowchart of user determination processing according to the present embodiment. The flowchart of FIG. 6 is executed in step S3 of the device control method of FIG.

特徴情報取得部112は、センサ装置2からの画像、距離、音声及び温度を、通信部12を介して受信してユーザの特徴情報として取得する(S31)。ユーザ判定部113は、ステップS31で特徴情報取得部112が取得した特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータがそれぞれ所定の条件を満たすか否かを判定する(S32)。   The feature information acquisition unit 112 receives the image, the distance, the sound, and the temperature from the sensor device 2 through the communication unit 12 and acquires the image as the user's feature information (S31). The user determination unit 113 determines whether the parameters of the user's face, voice, body size, body temperature, and past movement extracted from the feature information acquired by the feature information acquisition unit 112 in step S31 each satisfy predetermined conditions Is determined (S32).

ステップS32で特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータのうち少なくとも1つが所定の条件を満たすとユーザ判定部113が判定した場合に(S33のYES)、ユーザ判定部113は、ユーザに対して制御を許可することを判定する(S34)。   If the user determination unit 113 determines that at least one of the user's face, voice, body size, body temperature, and past motion parameters extracted from the feature information in step S32 satisfies the predetermined condition (YES in S33 And the user determination unit 113 determines that the user is permitted to control (S34).

ステップS32で特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータがいずれも所定の条件を満たさないとユーザ判定部113が判定した場合に(S33のNO)、ユーザ判定部113は、ユーザに対して制御を拒否することを判定する(S35)。   When the user determination unit 113 determines that the parameters of the user's face, voice, body size, body temperature, and past motion extracted from the feature information in step S32 do not satisfy predetermined conditions (NO in S33) The user determination unit 113 determines to deny the control to the user (S35).

ステップS32において、ユーザ判定部113はユーザの特徴情報から抽出される顔、声、体の大きさ、体温及び過去の動きのパラメータのうち少なくとも1つが条件を満たす場合に制御を許可するが、該パラメータの全てが条件を満たす場合に制御を許可してもよい。これらに限られず、制御の許可に必要な条件は制御サーバ1に任意に設定される。   In step S32, the user determination unit 113 permits control when at least one of the face, voice, body size, body temperature, and past motion parameters extracted from the feature information of the user satisfies the condition, Control may be permitted if all of the parameters satisfy the condition. Not limited to these, conditions required for permission of control are arbitrarily set in the control server 1.

ステップS34で制御の許可が判定された後、又はステップS35で制御の拒否が判定された後、制御サーバ1は図5のフローチャートに戻る。   After permission of control is determined in step S34 or after determination of refusal of control in step S35, the control server 1 returns to the flowchart of FIG.

[第1の実施形態の効果]
子供は、手を上げる、走る、跳ねる等の多彩な動きを行うことが多い。本実施形態に係る制御サーバ1は、子供と大人を区別可能なユーザの特徴情報を用いて、ユーザの動作による制御の可否を判定する。
[Effect of First Embodiment]
Children often perform various movements such as raising their hands, running and jumping. The control server 1 which concerns on this embodiment determines the decision | availability of control by a user's operation | movement using the characteristic information of the user which can distinguish a child and an adult.

子供の顔と大人の顔とはしわ等によって区別できることから、制御サーバ1はユーザの顔によって子供及び大人を区別する。また、子供の声は大人の声よりも高い傾向があることから、制御サーバ1はユーザの声によって子供及び大人を区別する。また、子供の体は大人の体よりも小さい傾向があることから、制御サーバ1はユーザの体の大きさ(例えば身長や手の平の大きさ)によって子供及び大人を区別する。また、子供の体温(皮膚温)は大人の体温よりも高い傾向があることから、制御サーバ1はユーザの体温によって子供及び大人を区別する。また、子供は走ったり跳ねたりする傾向があることから、制御サーバ1はユーザの過去の動き(速さ及び方向)によって子供及び大人を区別する。   Since the face of the child and the face of the adult can be distinguished by wrinkles etc., the control server 1 distinguishes children and adults by the face of the user. Also, since the voice of the child tends to be higher than the voice of the adult, the control server 1 distinguishes the child and the adult by the voice of the user. Also, since the child's body tends to be smaller than the adult's body, the control server 1 distinguishes the child and the adult according to the size of the user's body (for example, the height and the size of the palm). In addition, since the temperature of the child (skin temperature) tends to be higher than that of the adult, the control server 1 distinguishes the child and the adult by the temperature of the user. Also, since the children tend to run and bounce, the control server 1 distinguishes children and adults by their past movements (speed and direction).

そして制御サーバ1は、大人と推定されるユーザが行った動作による機器の制御を許可し、子供と推定されるユーザが行った動作による機器の制御を拒否する。このような構成により、子供が行う様々な動作を機器の制御の動作として誤検出することを抑制できる。   Then, the control server 1 permits control of the device by the operation performed by the user estimated to be an adult, and rejects control of the device by the operation performed by the user estimated as a child. With such a configuration, it is possible to suppress false detection of various operations performed by a child as operations of control of the device.

また、制御サーバ1は、子供と大人の区別に限らず、顔や声が登録済のユーザか否かを判別することによって、未登録のユーザが行った動作を誤検出して機器の制御を行うことを抑制できる。   In addition, the control server 1 misdetects the operation performed by the unregistered user by determining whether the face or voice is a registered user, not limited to distinction between a child and an adult, and controls the device. It can suppress doing.

[第1の実施形態の変形例]
上述の機器制御方法では、制御サーバ1は常に動作の検出を行っているが、特定の開始音声を検出したことをトリガとして動作の検出を開始してもよい。この場合には、センサ装置2は、マイクロフォン等の音声センサを備える。まず制御サーバ1は、開始音声が検出される前には動作の検出を行わず、開始音声の検出を開始する。制御サーバ1は、センサ装置2の音声センサから取得した音声から、所定の開始音声を検出する。開始音声は、例えば「OK」、「Hi」等の制御サーバ1に記憶された音声である。また、開始音声は、ユーザが制御サーバ1に予め録音した音声でもよい。
[Modification of First Embodiment]
In the above-described device control method, the control server 1 constantly detects the operation, but may start the detection of the operation triggered by the detection of the specific start voice. In this case, the sensor device 2 includes an audio sensor such as a microphone. First, the control server 1 does not detect an operation before the start voice is detected, and starts detection of the start voice. The control server 1 detects a predetermined start sound from the sound acquired from the sound sensor of the sensor device 2. The start voice is, for example, voice stored in the control server 1 such as “OK” or “Hi”. Also, the start voice may be voice pre-recorded on the control server 1 by the user.

例えば制御サーバ1は、センサ装置2の音声センサから取得した音声に対して音声認識技術を適用し、該音声に開始音声に対応する言語が含まれている場合に、開始音声を検出してもよい。音声認識技術として、公知の技術を用いることができる。また、制御サーバ1は、センサ装置2の音声センサから取得した音声の周波数スペクトルに、予め録音された開始音声の周波数スペクトルの所定の割合以上が含まれている場合に、開始音声を検出してもよい。所定の割合は、開始音声と一致していると考えられる程度の割合であり、例えば90%である。また、制御サーバ1は、センサ装置2の音声センサから取得した音声の周波数スペクトルのパターンと、予め録音された開始音声の周波数スペクトルのパターンとの相関度が所定値以上である場合に、開始音声を検出してもよい。   For example, the control server 1 applies speech recognition technology to the speech acquired from the speech sensor of the sensor device 2 and detects the speech even if the speech corresponding to the speech is included in the speech. Good. Known techniques can be used as the speech recognition technique. In addition, when the frequency spectrum of the voice acquired from the voice sensor of the sensor device 2 includes the predetermined ratio or more of the frequency spectrum of the start voice recorded in advance, the control server 1 detects the start voice. It is also good. The predetermined ratio is a ratio considered to be coincident with the start speech, and is, for example, 90%. In addition, the control server 1 starts the start voice when the degree of correlation between the pattern of the frequency spectrum of the voice acquired from the voice sensor of the sensor device 2 and the pattern of the frequency spectrum of the start voice recorded in advance is equal to or more than a predetermined value. May be detected.

そして制御サーバ1は、開始音声を検出した場合に、動作の検出を開始して上述の機器制御方法を行う。制御サーバ1は、開始音声が検出された時点から所定の時間が経過した場合に、動作の検出を停止し、再び開始音声の検出を行う。   Then, when detecting the start voice, the control server 1 starts the detection of the operation and performs the above-described device control method. The control server 1 stops the detection of the operation when a predetermined time has elapsed from the time when the start voice is detected, and detects the start voice again.

このような構成により、制御サーバ1は、開始音声を検出した後の所定期間のみ、画像からの動作の検出を行う。そのため、制御サーバ1の処理負荷及び通信負荷を軽減することができる。   With such a configuration, the control server 1 detects an operation from an image only during a predetermined period after detecting the start voice. Therefore, the processing load and communication load of the control server 1 can be reduced.

(第2の実施形態)
第1の実施形態において制御サーバ1は建物の外部に配置され、ネットワークNを介してセンサ装置2及び機器3と通信する。そのため、ネットワークNの通信状況によっては動作の検出及び機器の制御の実行に時間が掛かるおそれがある。また、センサ装置2から制御サーバ1へ画像を常時送信すると通信負荷が大きい。それに対して、本実施形態では、建物の外部に配置された制御サーバ1−1に加えて、建物内に制御サーバ1−2を設ける。建物内に制御サーバ1−2を設けることによって、動作の検出及び機器の制御の実行に掛かる時間を短縮できる。これにより、直接機器のスイッチやリモコンに触れて操作を行うことと比較して、時間を掛けずに手間を削減できるため、ユーザにとっての利便性が向上する。
Second Embodiment
In the first embodiment, the control server 1 is disposed outside the building and communicates with the sensor device 2 and the device 3 via the network N. Therefore, depending on the communication state of the network N, it may take time to execute the operation detection and the control of the device. Further, when an image is constantly transmitted from the sensor device 2 to the control server 1, the communication load is large. On the other hand, in the present embodiment, in addition to the control server 1-1 disposed outside the building, the control server 1-2 is provided in the building. By providing the control server 1-2 in the building, it is possible to reduce the time required to execute the operation detection and control of the device. As a result, compared with direct operation by touching the switch or the remote control of the device, time and effort can be reduced without spending time, and convenience for the user is improved.

図7は、本実施形態に係る機器制御システムSの模式図である。機器制御システムSは、第1の実施形態と同様のセンサ装置2、機器3及びゲートウェイ4に加えて、建物外においてネットワークNに接続されている制御サーバ1−1、及び建物内においてゲートウェイ4とネットワークNとの間に接続されている制御サーバ1−2を含む。制御サーバ1−1及び制御サーバ1−2は、それぞれ図4の制御サーバ1と同様の構成を有する。   FIG. 7 is a schematic view of the device control system S according to the present embodiment. The device control system S includes, in addition to the sensor device 2, the device 3 and the gateway 4 as in the first embodiment, the control server 1-1 connected to the network N outside the building, and the gateway 4 in the building It includes a control server 1-2 connected to the network N. The control server 1-1 and the control server 1-2 each have the same configuration as that of the control server 1 of FIG.

本実施形態では、建物内の制御サーバ1−2及び建物外の制御サーバ1−1の間で処理やデータを調整することによって、動作検出の速度及び精度のバランスをとる。例えば建物内の制御サーバ1−2において計算量の小さい動作検出処理を行い、建物外の制御サーバ1−1において計算量の大きい動作検出処理を行う。あるいは例えば建物内の制御サーバ1−2の記憶部13に少ない量の制御データベースDを記憶し、建物外の制御サーバ1−1の記憶部13に多い量の制御データベースDを記憶する。   In the present embodiment, the speed and accuracy of the motion detection are balanced by adjusting processing and data between the control server 1-2 in the building and the control server 1-1 outside the building. For example, the control server 1-2 in the building performs operation detection processing with a small amount of calculation, and the control server 1-1 outside the building performs operation detection processing with a large amount of calculation. Alternatively, for example, a small amount of control database D is stored in the storage unit 13 of the control server 1-2 in the building, and a large amount of control database D is stored in the storage unit 13 of the control server 1-1 outside the building.

まず建物内の制御サーバ1−2は、センサ装置2からの情報に基づいて動作の検出を行う。そして制御サーバ1−2が動作を検出できなかった場合に、制御サーバ1−2は建物外の制御サーバ1−1にセンサ装置2からの情報を転送し、制御サーバ1−1は、センサ装置2からの情報に基づいて動作の検出を行う。制御サーバ1−2及び制御サーバ1−1のどちらか一方は、検出した動作に基づいて機器3の制御を行う。   First, the control server 1-2 in the building detects an operation based on the information from the sensor device 2. And when control server 1-2 can not detect operation, control server 1-2 transfers information from sensor device 2 to control server 1-1 outside a building, and control server 1-1 is a sensor device. The operation is detected based on the information from 2. One of the control server 1-2 and the control server 1-1 controls the device 3 based on the detected operation.

[第2の実施形態の効果]
一般的に、建物内の制御サーバ1−2はネットワークNを介さないため通信負荷が掛からないが、設置スペースや設置コストによって機器構成に制約がある。一方、建物外の制御サーバ1−1は高度な機器構成を備えることができるため高速に処理を行えるが、通信負荷が掛かる。そこで本実施形態に係る機器制御システムSは、建物内の制御サーバ1−2で簡易的な動作検出を行い、建物外の制御サーバ1−1で複雑な動作検出を行う。このような構成によって、動作検出の精度を維持しつつも動作検出の速度を向上できる。
[Effect of Second Embodiment]
Generally, the control server 1-2 in the building does not have a communication load because it does not go through the network N, but there is a restriction on the device configuration due to the installation space and the installation cost. On the other hand, the control server 1-1 outside the building can perform high-speed processing because it can have a high-level equipment configuration, but it imposes a communication load. Therefore, the device control system S according to the present embodiment performs simple operation detection in the control server 1-2 in the building, and performs complicated operation detection in the control server 1-1 outside the building. Such a configuration can improve the speed of motion detection while maintaining the accuracy of motion detection.

(第3の実施形態)
本実施形態は、ユーザの顔、声、体の大きさ、体温及び過去の動き等のユーザ自身の情報に加えて、ユーザのいる場所、ユーザが所持するデバイス及びユーザが動作を行った時間等のユーザをとりまく環境の情報を用いて、ユーザによる制御の可否を判定する。それ以外の構成及び処理は、第1の実施形態と同様である。
Third Embodiment
In this embodiment, in addition to the user's own information such as the user's face, voice, body size, body temperature, and past movements, the user's location, the device possessed by the user, the time when the user performed an action, etc. The information on the environment surrounding the user is used to determine whether the user can control. The other configurations and processes are similar to those of the first embodiment.

図8は、本実施形態に係る機器制御システムSのブロック図である。センサ装置2は、第1の実施形態と同様の画像センサ21、距離センサ22、音声センサ23及び温度センサ24に加えて、位置測定部25及び近距離通信部26を有する。   FIG. 8 is a block diagram of a device control system S according to the present embodiment. The sensor device 2 includes a position measurement unit 25 and a short distance communication unit 26 in addition to the image sensor 21, the distance sensor 22, the voice sensor 23, and the temperature sensor 24 similar to those of the first embodiment.

位置測定部25は、ユーザの位置を測定する。ユーザの位置は、例えばユーザのいる部屋を示す情報である。位置測定部25は、センサ装置2自身の位置及び建物の部屋割を示すマップを予め記憶する。そして位置測定部25は、画像センサ21が撮像した画像及び距離センサ22が測定した距離から、センサ装置2自身の位置を基準としたユーザの位置を推定することによって、ユーザがマップ上のどの部屋にいるかを特定する。あるいは位置測定部25は、複数の画像センサ21によって複数の方向から撮像された画像から、ユーザの位置を推定してもよい。位置測定部25は、ユーザの位置を示す情報を出力する。   The position measurement unit 25 measures the position of the user. The position of the user is, for example, information indicating a room in which the user is present. The position measurement unit 25 stores in advance a map indicating the position of the sensor device 2 itself and the room allocation of the building. The position measuring unit 25 estimates which room on the map the user has by estimating the position of the user based on the position of the sensor device 2 from the image captured by the image sensor 21 and the distance measured by the distance sensor 22. Identify who is in Alternatively, the position measurement unit 25 may estimate the position of the user from the images captured from a plurality of directions by the plurality of image sensors 21. The position measurement unit 25 outputs information indicating the position of the user.

近距離通信部26は、ユーザの所持するデバイスとの間で近距離通信を行うためのアンテナ等を有する通信インターフェースである。近距離通信は、例えばBluetooth(登録商標)である。ユーザの所持するデバイスは、例えば近距離通信機能を有する腕時計である。近距離通信部26は、ユーザの所持するデバイスを識別する情報を予め記憶する。近距離通信部26は、ユーザの所持するデバイスに対して近距離通信を試行し、近距離通信の可否を示す情報を出力する。   The short distance communication unit 26 is a communication interface having an antenna or the like for performing short distance communication with a device possessed by the user. The short distance communication is, for example, Bluetooth (registered trademark). The device possessed by the user is, for example, a watch having a near field communication function. The short distance communication unit 26 stores in advance information identifying a device possessed by the user. The short distance communication unit 26 tries short distance communication with the device possessed by the user, and outputs information indicating whether or not the short distance communication is possible.

特徴情報取得部112は、センサ装置2から、画像、距離、音声及び温度に加えて、ユーザの位置及び近距離通信の可否を、特徴情報として取得する。また、特徴情報取得部112は、動作検出部111が動作を検出した時間を、特徴情報として取得する。   The feature information acquisition unit 112 acquires, from the sensor device 2, the position of the user and the possibility of near field communication as feature information in addition to the image, distance, sound, and temperature. Also, the feature information acquisition unit 112 acquires, as feature information, the time when the operation detection unit 111 detects an operation.

ユーザ判定部113は、第1の実施形態と同様のユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータに加えて、特徴情報から抽出したユーザの位置、近距離通信の可否、及びユーザが動作を行った時間のパラメータを用いて、制御の許可又は拒否を判定する。   The user determination unit 113 adds the user's face, voice, body size, body temperature, and past motion parameters as in the first embodiment, as well as the position of the user extracted from the feature information and whether near-field communication is possible. And the parameter of the time at which the user performed the operation determine permission or denial of control.

ユーザの位置を用いた判定を行うために、記憶部13には、建物内の位置(例えば部屋)ごとの判定基準が予め記憶される。そしてユーザ判定部113は、記憶部13に記憶された位置ごとの判定基準に従って、特徴情報取得部112が取得した特徴情報が示すユーザの位置に対応する判定基準を設定する。例えばユーザ判定部113は、居間では身長が小さいユーザによる制御を許可し、書斎では身長が小さいユーザによる制御を拒否する。このような構成により、例えば子供の動作による制御の可否を部屋ごとに設定することができる。   In order to make a determination using the position of the user, the storage unit 13 stores in advance determination criteria for each position (for example, a room) in the building. Then, the user determination unit 113 sets a determination criterion corresponding to the position of the user indicated by the feature information acquired by the feature information acquisition unit 112 in accordance with the determination criterion for each position stored in the storage unit 13. For example, the user determination unit 113 permits control by a user whose height is small in the living room, and rejects control by a user whose height is small in the study. With such a configuration, for example, it is possible to set, for each room, whether or not control by the operation of a child is possible.

ユーザが所持するデバイスを用いた判定を行うために、ユーザ判定部113は、特徴情報取得部112が取得した特徴情報が示す近距離通信の可否から、動作を行ったユーザがデバイスを所持しているか否かを判定する。具体的には、ユーザ判定部113は、近距離通信が可能な場合にユーザがデバイスを所持していると判定し、そうでない場合にデバイスを所持していないと判定する。そしてユーザ判定部113は、ユーザがデバイスを所持していると判定した場合に制御を許可し、そうでない場合に制御を拒否する。このような構成により、特定のデバイスを身に着けているユーザに動作による制御を許可することができる。   In order to make a determination using the device possessed by the user, the user determination unit 113 determines that the user who performed the operation possesses the device based on the possibility of the short distance communication indicated by the feature information acquired by the feature information acquiring unit 112. Determine if there is. Specifically, the user determination unit 113 determines that the user holds the device when the short distance communication is possible, and determines that the device is not held otherwise. Then, the user determination unit 113 permits control when it is determined that the user holds the device, and otherwise rejects control. Such a configuration can allow a user wearing a particular device to gain operational control.

ユーザが動作を行った時間を用いた判定を行うために、記憶部13には、時間帯ごとの判定基準が予め記憶される。そしてユーザ判定部113は、記憶部13に記憶された時間帯ごとの判定基準に従って、特徴情報取得部112が取得した特徴情報が示すユーザが動作を行った時間に対応する判定基準を設定する。例えばユーザ判定部113は、昼間には身長が小さいユーザによる制御を許可し、夜間には身長が小さいユーザによる制御を拒否する。このような構成により、例えば子供の動作による制御の可否を時間帯ごとに設定することができる。   In order to perform determination using the time when the user performed an operation, the storage unit 13 stores in advance determination criteria for each time zone. Then, the user determination unit 113 sets a determination criterion corresponding to the time when the user indicated by the feature information acquired by the feature information acquisition unit 112 performs in accordance with the determination criterion for each time zone stored in the storage unit 13. For example, the user determination unit 113 permits control by a user whose height is small in the daytime, and rejects control by a user whose height is small in the night. With such a configuration, it is possible to set, for example, whether or not the control by the operation of the child can be performed for each time zone.

ユーザ判定部113は、ユーザのいる場所、ユーザが所持するデバイス及びユーザが動作を行った時間等のユーザをとりまく環境の情報のみに用いて制御の可否を判定してもよく、環境の情報をユーザの顔、声、体の大きさ、体温及び過去の動き等のユーザ自身の情報と組み合わせて制御の可否を判定してもよい。   The user determination unit 113 may determine whether or not control is possible using only information on the environment surrounding the user, such as the location of the user, the device possessed by the user, and the time at which the user performed an operation. The control availability may be determined in combination with the user's own information such as the user's face, voice, body size, body temperature, and past movements.

[第3の実施形態の効果]
本実施形態では、ユーザをとりまく環境に基づいて動作による制御の可否を判定することによって、第1の実施形態と同様の効果を奏する。さらに、顔や身長のようなユーザ自身の情報に、位置や時間のような環境の情報を組み合わせることによって、より細かい制御可否の判定を行うことができる。
[Effect of the third embodiment]
In this embodiment, the same effect as that of the first embodiment is obtained by determining whether or not control by operation is possible based on the environment surrounding the user. Furthermore, by combining the information of the user's own such as the face and the height with the information of the environment such as the position and the time, it is possible to determine whether or not the control is finer.

(第4の実施形態)
本実施形態は、複数のユーザの動作が同時に検出された場合に、ユーザの特徴情報に基づいて優先度を決定し、該優先度に従っていずれかのユーザの動作による制御を行う。これにより、例えば大人と子供が同時に動作を行った場合に、大人の動作を優先して制御を許可することができる。なお、ここでの同時とは、実質的に同時であることを含む。
Fourth Embodiment
In the present embodiment, when the actions of a plurality of users are simultaneously detected, the priority is determined based on the user's feature information, and the control by any user's action is performed according to the priorities. Thereby, for example, when an adult and a child operate at the same time, control can be permitted by giving priority to the operation of the adult. Note that simultaneous here includes substantially simultaneous.

複数のユーザの動作が同時に行われた場合に、動作検出部111は、それぞれのユーザの動作及び位置を検出する。そして動作検出部111は、それぞれのユーザの動作に関連付けられた制御対象及び制御内容を決定する。   When a plurality of user actions are performed simultaneously, the action detection unit 111 detects the action and position of each user. Then, the operation detection unit 111 determines the control target and the control content associated with the operation of each user.

特徴情報取得部112は、通信部12を介してセンサ装置2からの情報を受信し、該情報が示す画像、距離、音声及び温度を、特徴情報として取得する。特徴情報には複数の方向の距離、音声及び温度の一又は複数の情報が含まれており、画像中のいずれのユーザに係る情報であるか特定可能である。   The feature information acquisition unit 112 receives information from the sensor device 2 via the communication unit 12 and acquires an image, a distance, a sound, and a temperature indicated by the information as feature information. The feature information includes one or more information of distances in a plurality of directions, voices, and temperatures, and it is possible to specify which user in the image the information relates to.

ユーザ判定部113は、特徴情報取得部112が取得した複数のユーザの特徴情報に基づいて、動作検出部111が決定した制御対象及び制御内容の実行をいずれのユーザに許可するか判定する。具体的には、ユーザ判定部113は、複数のユーザのそれぞれについて特徴情報から顔、声、体の大きさ、体温及び過去の動きのパラメータを抽出し、それらが条件を満たすか否かに基づいて優先度を決定する。各パラメータに適用する条件は、第1の実施形態と同様である。優先度は、例えば条件を満たすパラメータが多いほど高く、少ないほど低く設定される。また、パラメータの種類ごとに優先度への貢献が異なるように(例えば顔の条件を満たす場合には体温の条件を満たす場合よりも優先度が高いように)設定されてもよい。ここに示した優先度は一例であり、ユーザによって任意に優先度が設定されてもよい。   The user determination unit 113 determines which user the execution of the control target and the control content determined by the operation detection unit 111 is permitted based on the feature information of the plurality of users acquired by the feature information acquisition unit 112. Specifically, the user determination unit 113 extracts face, voice, body size, body temperature, and past motion parameters from the feature information for each of a plurality of users, and based on whether they satisfy the conditions To determine the priority. The conditions applied to each parameter are the same as in the first embodiment. For example, the priority is set to be higher as the number of parameters satisfying the condition is larger, and to be lower as the number is smaller. Also, the contribution to the priority may be set to be different for each type of parameter (for example, when the condition of the face is satisfied, the priority is higher than when the condition of the body temperature is satisfied). The priority shown here is an example, and the user may arbitrarily set the priority.

そしてユーザ判定部113は、複数のユーザのうち最も優先度が高い1人のユーザを選択し、選択した1人のユーザの動作による制御を許可し、他のユーザの動作による制御を拒否する。   Then, the user determination unit 113 selects one of the plurality of users having the highest priority, permits control by the operation of the selected one user, and rejects control by the operation of the other user.

[第4の実施形態の効果]
本実施形態では、複数のユーザによる動作が同時に行われた場合であっても、特徴情報に基づいて決定された優先度に従っていずれかのユーザを選択することによって、機器の制御を円滑に行うことができる。
[Effect of Fourth Embodiment]
In the present embodiment, even when operations by a plurality of users are simultaneously performed, the device control can be smoothly performed by selecting any one of the users according to the priority determined based on the feature information. Can.

(第5の実施形態)
第1の実施形態は動作を行ったユーザ自身の特徴情報に基づいて動作による制御の可否を判定するのに対して、本実施形態は動作を行った第1のユーザの近傍にいる第2のユーザの特徴情報に基づいて該動作による制御の可否を判定する。これにより、いわゆるペアレンタルコントロールのように、例えば子供単独の動作による制御を拒否し、大人が同伴している子供の動作による制御を許可することができる。
Fifth Embodiment
While the first embodiment determines whether or not control by an operation is possible based on the characteristic information of the user who performed the operation, the second embodiment is a second embodiment in the vicinity of the first user who performed the operation. Based on the user's feature information, it is determined whether or not the control by the operation is possible. Thus, for example, as in the case of so-called parental control, it is possible to deny control by the operation of the child alone and permit control by the operation of the child accompanied by an adult.

動作検出部111は、センサ装置2が撮像する画像中に第1のユーザ及び第2のユーザが存在する場合に、第1のユーザの動作及び位置を検出し、第1のユーザの動作に関連付けられた制御対象及び制御内容を決定する。特徴情報取得部112は、センサ装置2からの画像、距離、音声及び温度を、通信部12を介して受信して特徴情報として取得する。特徴情報には複数の方向の距離、音声及び温度の一又は複数の情報が含まれており、第1のユーザの近傍にいる第2のユーザに係る情報を特定可能である。   The motion detection unit 111 detects the motion and position of the first user when the first user and the second user exist in the image captured by the sensor device 2 and associates the motion and the position with the first user's motion. Determine the control target and the control content. The feature information acquisition unit 112 receives the image, the distance, the sound, and the temperature from the sensor device 2 through the communication unit 12 and acquires it as feature information. The feature information includes one or more information on distances in a plurality of directions, voice, and temperature, and can specify information on a second user in the vicinity of the first user.

ユーザ判定部113は、特徴情報取得部112が取得した特徴情報のうち、第1のユーザの近傍にいる第2のユーザの特徴情報に基づいて、動作検出部111が決定した制御対象及び制御内容の実行を第1のユーザに許可するか否かを判定する。すなわち、ユーザ判定部113は、動作を行った第1のユーザではなく、その近傍に位置する第2のユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータを抽出し、一又は複数のパラメータが条件を満たすか否かを判定する。各パラメータに適用する条件は、第1の実施形態と同様である。そしてユーザ判定部113は、第2のユーザのパラメータが条件を満たす場合に、第1のユーザの動作による制御を許可する。   The user determination unit 113 determines, among the feature information acquired by the feature information acquisition unit 112, the control target and the control content determined by the operation detection unit 111 based on the feature information of the second user who is near the first user. It is determined whether or not the first user is permitted to execute. That is, the user determination unit 113 extracts the parameters of the face, voice, body size, body temperature, and past movement of the second user who is not the first user who performed the operation but is located near the first user. Alternatively, it is determined whether a plurality of parameters satisfy the condition. The conditions applied to each parameter are the same as in the first embodiment. Then, when the parameter of the second user satisfies the condition, the user determination unit 113 permits control by the operation of the first user.

[第5の実施形態の効果]
本実施形態では、動作を行った第1のユーザの近傍に位置する第2のユーザの特徴情報に基づいて制御の可否を判定するため、第1のユーザ自身が条件を満たしていなくとも動作による制御を許可することができる。
[Effect of Fifth Embodiment]
In this embodiment, since the controllability is determined based on the feature information of the second user located in the vicinity of the first user who performed the operation, the operation is performed even if the first user does not satisfy the condition. Control can be granted.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。   As mentioned above, although the present invention was explained using an embodiment, the technical scope of the present invention is not limited to the range given in the above-mentioned embodiment, and various modification and change are possible within the range of the gist. is there. For example, a specific embodiment of device distribution and integration is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed and integrated in any unit. Can. In addition, new embodiments produced by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effects of the new embodiment generated by the combination combine the effects of the original embodiment.

制御サーバ1の制御部11(プロセッサ)は、図5、6に示す機器制御方法に含まれる各ステップ(工程)の主体となる。すなわち、制御部11は、図5、6に示す機器制御方法を実行するための機器制御プログラムを記憶部13から読み出し、該機器制御プログラムを実行して制御サーバ1の各部を制御することによって、図5、6に示す機器制御方法を実行する。図5、6に示す機器制御方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。   The control unit 11 (processor) of the control server 1 is a main body of each step (process) included in the device control method shown in FIGS. That is, the control unit 11 reads the device control program for executing the device control method shown in FIGS. 5 and 6 from the storage unit 13, and executes the device control program to control each portion of the control server 1. The device control method shown in FIGS. 5 and 6 is executed. The steps included in the device control method shown in FIGS. 5 and 6 may be partially omitted, the order of the steps may be changed, and a plurality of steps may be performed in parallel.

S 機器制御システム
1 制御サーバ
111 動作検出部
112 特徴情報取得部
113 ユーザ判定部
114 機器制御部
3 機器
S Device Control System 1 Control Server 111 Operation Detection Unit 112 Feature Information Acquisition Unit 113 User Determination Unit 114 Device Control Unit 3 Device

Claims (14)

ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、
前記ユーザの特徴情報を取得する取得部と、
前記取得部が取得した前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定する判定部と、
前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、
を有する機器制御装置。
A detection unit configured to detect an operation of the user from an image obtained by imaging the user;
An acquisition unit for acquiring the characteristic information of the user;
A determination unit that determines whether to permit the user to control the device based on the feature information acquired by the acquisition unit;
A device control unit that controls the device based on the operation detected by the detection unit when the determination unit grants control of the device to the user;
A device control device having
前記取得部は、前記ユーザの体の少なくとも一部の大きさを前記特徴情報として取得し、
前記判定部は、前記大きさが所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1に記載の機器制御装置。
The acquisition unit acquires the size of at least a part of the user's body as the feature information.
The determination unit permits the user to control the device when the size is within a predetermined range.
The device control apparatus according to claim 1.
前記取得部は、前記ユーザの声の特徴を示す情報を前記特徴情報として取得し、
前記判定部は、前記声の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可する、
請求項1又は2に記載の機器制御装置。
The acquisition unit acquires information indicating a feature of the voice of the user as the feature information.
The determination unit permits the user to control the device when the information indicating the feature of the voice satisfies a predetermined condition.
The device control apparatus according to claim 1.
前記取得部は、前記ユーザの顔の特徴を示す情報を前記特徴情報として取得し、
前記判定部は、前記顔の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可する、
請求項1から3のいずれか一項に記載の機器制御装置。
The acquisition unit acquires information indicating the feature of the face of the user as the feature information.
The determination unit permits the user to control the device when the information indicating the feature of the face satisfies a predetermined condition.
The device control apparatus according to any one of claims 1 to 3.
前記取得部は、前記ユーザの体温を前記特徴情報として取得し、
前記判定部は、前記体温が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1から4のいずれか一項に記載の機器制御装置。
The acquisition unit acquires the temperature of the user as the feature information.
The determination unit permits the user to control the device when the body temperature is within a predetermined range.
The device control apparatus according to any one of claims 1 to 4.
前記取得部は、前記ユーザが所定のデバイスを所持しているか否かを前記特徴情報として取得し、
前記判定部は、前記ユーザが前記所定のデバイスを所持している場合に、前記機器の制御を前記ユーザに許可する、
請求項1から5のいずれか一項に記載の機器制御装置。
The acquisition unit acquires, as the feature information, whether the user holds a predetermined device.
The determination unit permits the control of the device to the user when the user possesses the predetermined device.
The device control apparatus according to any one of claims 1 to 5.
前記取得部は、前記ユーザの位置を前記特徴情報として取得し、
前記判定部は、前記位置が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1から6のいずれか一項に記載の機器制御装置。
The acquisition unit acquires the position of the user as the feature information,
The determination unit permits the user to control the device when the position is within a predetermined range.
The device control apparatus according to any one of claims 1 to 6.
前記取得部は、前記ユーザによって前記動作が行われた時間帯を前記特徴情報として取得し、
前記判定部は、前記時間帯が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1から7のいずれか一項に記載の機器制御装置。
The acquisition unit acquires, as the feature information, a time zone in which the operation is performed by the user.
The determination unit permits the user to control the device when the time zone is within a predetermined range.
The device control apparatus according to any one of claims 1 to 7.
前記取得部は、前記ユーザの過去の動作を前記特徴情報として取得し、
前記判定部は、前記過去の動作が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可する、
請求項1から8のいずれか一項に記載の機器制御装置。
The acquisition unit acquires a past operation of the user as the feature information.
The determination unit permits the user to control the device when the past operation satisfies a predetermined condition.
The device control apparatus according to any one of claims 1 to 8.
前記検出部が複数の前記ユーザによる前記動作を検出した場合に、前記判定部は、前記取得部が取得した複数の前記ユーザの前記特徴情報に基づいて複数の前記ユーザのうち1人を選択し、選択した1人の前記ユーザに前記機器の制御を許可する、
請求項1から9のいずれか一項に記載の機器制御装置。
When the detection unit detects the motion by a plurality of the users, the determination unit selects one of the plurality of the users based on the feature information of the plurality of users acquired by the acquisition unit. , Allowing the selected one of the users to control the device,
The device control apparatus according to any one of claims 1 to 9.
前記画像中に複数の前記ユーザが存在する場合に、複数の前記ユーザのうち第1のユーザの前記特徴情報に基づいて、前記機器の制御を前記第1のユーザとは異なる第2のユーザに許可する、
請求項1から10のいずれか一項に記載の機器制御装置。
When there are a plurality of the users in the image, the control of the device is controlled to a second user different from the first user based on the characteristic information of the first user among the plurality of users. To give permission,
The device control apparatus according to any one of claims 1 to 10.
前記検出部は、前記ユーザの第1の動作と、前記第1の動作の後に行われる前記ユーザの第2の動作とを前記動作として検出し、
前記機器制御部は、前記第1の動作によって選択された前記機器に対して、前記第2の動作に対応する前記制御を行う、
請求項1から11のいずれか一項に記載の機器制御装置。
The detection unit detects, as the operation, a first operation of the user and a second operation of the user performed after the first operation.
The device control unit performs the control corresponding to the second operation on the device selected by the first operation.
The apparatus control apparatus as described in any one of Claims 1-11.
ユーザを撮像することによって得られた画像から前記ユーザの動作を検出するステップと、
前記ユーザの特徴情報を取得するステップと、
前記取得するステップで取得された前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定するステップと、
前記判定するステップで前記機器の制御が前記ユーザに許可される場合に、前記検出するステップで検出された前記動作に基づいて前記機器の制御を行う機器制御部と、
を有する機器制御方法。
Detecting an action of the user from an image obtained by imaging the user;
Acquiring the characteristic information of the user;
Determining whether to permit the user to control the device based on the feature information acquired in the acquiring step;
A device control unit configured to control the device based on the operation detected in the detecting step when control of the device is permitted to the user in the determining step;
A device control method having:
機器と、前記機器を制御する機器制御装置とを備え、
前記機器制御装置は、
ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、
前記ユーザの特徴情報を取得する取得部と、
前記取得部が取得した前記特徴情報に基づいて、前記機器の制御を前記ユーザに許可するか否かを判定する判定部と、
前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、
を有し、
前記機器は、前記機器制御部による前記制御に従って作動する、機器制御システム。
An apparatus and an apparatus control device for controlling the apparatus;
The device control device
A detection unit configured to detect an operation of the user from an image obtained by imaging the user;
An acquisition unit for acquiring the characteristic information of the user;
A determination unit that determines whether to permit the user to control the device based on the feature information acquired by the acquisition unit;
A device control unit that controls the device based on the operation detected by the detection unit when the determination unit grants control of the device to the user;
Have
The device control system, wherein the device operates according to the control by the device control unit.
JP2017183398A 2017-09-25 2017-09-25 Device control device, device control method, and device control system Active JP6711799B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017183398A JP6711799B2 (en) 2017-09-25 2017-09-25 Device control device, device control method, and device control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017183398A JP6711799B2 (en) 2017-09-25 2017-09-25 Device control device, device control method, and device control system

Publications (2)

Publication Number Publication Date
JP2019062270A true JP2019062270A (en) 2019-04-18
JP6711799B2 JP6711799B2 (en) 2020-06-17

Family

ID=66178275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017183398A Active JP6711799B2 (en) 2017-09-25 2017-09-25 Device control device, device control method, and device control system

Country Status (1)

Country Link
JP (1) JP6711799B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113891159A (en) * 2020-07-01 2022-01-04 丰田自动车株式会社 Information processing apparatus, information processing method, and control system
WO2023148800A1 (en) * 2022-02-01 2023-08-10 日本電気株式会社 Control device, control system, control method, and program
US11971718B2 (en) * 2021-11-15 2024-04-30 Toyota Jidosha Kabushiki Kaisha Control system, control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303251A (en) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd Control method
JP2011505618A (en) * 2007-11-21 2011-02-24 ジェスチャー テック,インコーポレイテッド Device access control
JP2013080413A (en) * 2011-10-05 2013-05-02 Sony Corp Input apparatus and input recognition method
JP2014048937A (en) * 2012-08-31 2014-03-17 Omron Corp Gesture recognition device, control method thereof, display equipment, and control program
US20140359651A1 (en) * 2011-12-26 2014-12-04 Lg Electronics Inc. Electronic device and method of controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303251A (en) * 1997-11-27 2004-10-28 Matsushita Electric Ind Co Ltd Control method
JP2011505618A (en) * 2007-11-21 2011-02-24 ジェスチャー テック,インコーポレイテッド Device access control
JP2013080413A (en) * 2011-10-05 2013-05-02 Sony Corp Input apparatus and input recognition method
US20140359651A1 (en) * 2011-12-26 2014-12-04 Lg Electronics Inc. Electronic device and method of controlling the same
JP2014048937A (en) * 2012-08-31 2014-03-17 Omron Corp Gesture recognition device, control method thereof, display equipment, and control program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113891159A (en) * 2020-07-01 2022-01-04 丰田自动车株式会社 Information processing apparatus, information processing method, and control system
JP2022012522A (en) * 2020-07-01 2022-01-17 トヨタ自動車株式会社 Information processing apparatus, information processing method, and control system
JP7322824B2 (en) 2020-07-01 2023-08-08 トヨタ自動車株式会社 Information processing device, information processing method, and control system
US11971718B2 (en) * 2021-11-15 2024-04-30 Toyota Jidosha Kabushiki Kaisha Control system, control method, and program
WO2023148800A1 (en) * 2022-02-01 2023-08-10 日本電気株式会社 Control device, control system, control method, and program

Also Published As

Publication number Publication date
JP6711799B2 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
US11017217B2 (en) System and method for controlling appliances using motion gestures
US20130077831A1 (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
KR20220031610A (en) Multi-modal user interface
CN114391163A (en) Gesture detection system and method
CN111163906B (en) Mobile electronic device and method of operating the same
EP3613045B1 (en) Methods, systems, and media for providing information relating to detected events
US11163367B2 (en) Method of obtaining gesture zone definition data for a control system based on user input
KR20140106393A (en) Communication device, communication device of control method, controled device, communication system and control program recorded by recording media
US20200169705A1 (en) Vehicle system
JP6711799B2 (en) Device control device, device control method, and device control system
JP2009087074A (en) Equipment control system
EP3948514B1 (en) System and method to view occupant status and manage devices of building
JP6719434B2 (en) Device control device, device control method, and device control system
JP2014192599A (en) Control system, control method, and computer program
JP6347347B2 (en) Notification system, notification program, notification method, and notification device
WO2016199457A1 (en) Information processing device, information processing method, and program
JP2021033677A (en) Information processing apparatus and program
JPWO2020022371A1 (en) Robots and their control methods and programs
US10838741B2 (en) Information processing device, information processing method, and program
WO2021084949A1 (en) Information processing device, information processing method, and program
US11687049B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP6711800B2 (en) Device control device, device control method, and device control system
JP7180601B2 (en) SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM
JP6340626B2 (en) Notification system, notification program, notification method, and notification device
WO2022044695A1 (en) Environmental control system, environmental control device, environmental control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200528

R150 Certificate of patent or registration of utility model

Ref document number: 6711799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150