JP2019062270A - Device control apparatus, device control method, and device control system - Google Patents
Device control apparatus, device control method, and device control system Download PDFInfo
- Publication number
- JP2019062270A JP2019062270A JP2017183398A JP2017183398A JP2019062270A JP 2019062270 A JP2019062270 A JP 2019062270A JP 2017183398 A JP2017183398 A JP 2017183398A JP 2017183398 A JP2017183398 A JP 2017183398A JP 2019062270 A JP2019062270 A JP 2019062270A
- Authority
- JP
- Japan
- Prior art keywords
- user
- control
- unit
- feature information
- determination unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ユーザの動作に基づいて機器を制御する機器制御装置、機器制御方法及び機器制御システムに関する。 The present invention relates to an apparatus control apparatus, an apparatus control method, and an apparatus control system that control an apparatus based on a user's operation.
ユーザの動作(ジェスチャ)を検知することによって、住宅内に設置された様々な機器への指示を行う機器制御装置が開発されている。ここでユーザの動作とは、機器の操作部に対して直接操作を行うことではなく、機器の操作部から同一又は離れた空間でユーザが行う様々な動作をいう。機器制御装置はユーザが所定の動作を行ったことを検知すると、該動作に基づいて照明、空調機器、AV(Audio Visual)機器等の機器をオン又はオフにし、あるいは調節することができる。 There have been developed device control apparatuses that issue instructions to various devices installed in a house by detecting user's actions (gesture). Here, the operation of the user does not directly operate the operation unit of the device but refers to various operations performed by the user in the same space as or apart from the operation unit of the device. When the device control device detects that the user has performed a predetermined operation, it can turn on or off or adjust devices such as lighting, air conditioners, AV (Audio Visual) devices based on the operation.
特許文献1には、ユーザ端末において、ユーザが行った動作を検知し、該動作に関連付けられた相手との通信を開始する技術が記載されている。
住宅には、様々なユーザが存在し得る。特に子供は、手を上げる、走る、跳ねる等の多彩な動きを行うことが多い。このように様々なユーザが存在する状況において、ユーザの動作に基づいて機器の制御を行う機器制御装置には、機器への指示が意図されていない動作を機器への指示として検出する等、動作の誤検出が発生しやすいという問題がある。 In a house, various users may exist. In particular, children often perform various movements such as raising their hands, running and jumping. In such a situation where various users exist, the device control apparatus that controls the device based on the user's operation detects an operation not intended to instruct the device as an instruction to the device, or the like. There is a problem that false detection of
しかしながら、特許文献1に記載の技術では、ユーザとユーザ端末とが一対一の関係にあることが前提となっているため、様々なユーザの動作を検知し得る状況は想定されておらず、動作の誤検出への対策は行われていない。
However, in the technology described in
本発明は上述の点に鑑みてなされたものであり、ユーザの動作に基づいて機器の制御を行う際に、動作の誤検出を抑制可能な機器制御装置、機器制御方法及び機器制御システムを提供することを目的とする。 The present invention has been made in view of the above-described points, and provides an apparatus control apparatus, an apparatus control method, and an apparatus control system capable of suppressing erroneous detection of an operation when performing an apparatus control based on the user's operation. The purpose is to
本発明の第1の態様の機器制御装置は、ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、前記ユーザの特徴情報を取得する取得部と、前記取得部が取得した前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定する判定部と、前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、を有する。 A device control apparatus according to a first aspect of the present invention includes: a detection unit that detects an operation of the user from an image obtained by imaging a user; an acquisition unit that acquires characteristic information of the user; A determination unit that determines whether to permit control of the device to the user based on the acquired characteristic information, and the detection unit determines that the determination unit permits control of the device based on the acquired characteristic information And a device control unit configured to control the device based on the detected operation.
前記取得部は、前記ユーザの体の少なくとも一部の大きさを前記特徴情報として取得し、前記判定部は、前記大きさが所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit acquires the size of at least a part of the user's body as the feature information, and the determination unit controls the device to the user when the size is within a predetermined range. May be permitted.
前記取得部は、前記ユーザの声の特徴を示す情報を前記特徴情報として取得し、前記判定部は、前記声の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit acquires information indicating a feature of the voice of the user as the feature information, and the determination unit controls the device when the information indicating the feature of the voice satisfies a predetermined condition. You may allow
前記取得部は、前記ユーザの顔の特徴を示す情報を前記特徴情報として取得し、前記判定部は、前記顔の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit acquires information indicating the feature of the face of the user as the feature information, and the determination unit controls the device when the information indicating the feature of the face satisfies a predetermined condition. You may allow
前記取得部は、前記ユーザの体温を前記特徴情報として取得し、前記判定部は、前記体温が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit may acquire the temperature of the user as the feature information, and the determination unit may permit the user to control the device when the temperature is within a predetermined range.
前記取得部は、前記ユーザが所定のデバイスを所持しているか否かを前記特徴情報として取得し、前記判定部は、前記ユーザが前記所定のデバイスを所持している場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit acquires, as the characteristic information, whether or not the user holds a predetermined device, and the determination unit controls the device when the user holds the predetermined device. May be permitted to the user.
前記取得部は、前記ユーザの位置を前記特徴情報として取得し、前記判定部は、前記位置が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit may acquire the position of the user as the feature information, and the determination unit may permit the user to control the device when the position is within a predetermined range.
前記取得部は、前記ユーザによって前記動作が行われた時間帯を前記特徴情報として取得し、前記判定部は、前記時間帯が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit acquires, as the feature information, a time zone in which the operation is performed by the user, and the determination unit instructs the user to control the device when the time zone is within a predetermined range. May be permitted.
前記取得部は、前記ユーザの過去の動作を前記特徴情報として取得し、前記判定部は、前記過去の動作が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可してもよい。 The acquisition unit may acquire the past operation of the user as the feature information, and the determination unit may permit the user to control the device when the past operation satisfies a predetermined condition. .
前記検出部が複数の前記ユーザによる前記動作を検出した場合に、前記判定部は、前記取得部が取得した複数の前記ユーザの前記特徴情報に基づいて複数の前記ユーザのうち1人を選択し、選択した1人の前記ユーザに前記機器の制御を許可してもよい。 When the detection unit detects the motion by a plurality of the users, the determination unit selects one of the plurality of the users based on the feature information of the plurality of users acquired by the acquisition unit. The selected one user may be allowed to control the device.
前記画像中に複数の前記ユーザが存在する場合に、複数の前記ユーザのうち第1のユーザの前記特徴情報に基づいて、前記機器の制御を前記第1のユーザとは異なる第2のユーザに許可してもよい。 When there are a plurality of the users in the image, the control of the device is controlled to a second user different from the first user based on the characteristic information of the first user among the plurality of users. May be permitted.
前記検出部は、前記ユーザの第1の動作と、前記第1の動作の後に行われる前記ユーザの第2の動作とを前記動作として検出し、前記機器制御部は、前記第1の動作によって選択された前記機器に対して、前記第2の動作に対応する前記制御を行ってもよい。 The detection unit detects, as the operation, a first operation of the user and a second operation of the user performed after the first operation, and the device control unit detects the first operation by the first operation. The control corresponding to the second operation may be performed on the selected device.
本発明の第2の態様の機器制御方法は、ユーザを撮像することによって得られた画像から前記ユーザの動作を検出するステップと、前記ユーザの特徴情報を取得するステップと、前記取得するステップで取得された前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定するステップと、前記判定するステップで前記機器の制御が前記ユーザに許可される場合に、前記検出するステップで検出された前記動作に基づいて前記機器の制御を行う機器制御部と、を有する。 A device control method according to a second aspect of the present invention includes the steps of: detecting an operation of the user from an image obtained by imaging the user; acquiring characteristic information of the user; and acquiring the characteristic information of the user Based on the acquired characteristic information, determining whether to permit control of the device to the user, and detecting when control of the device is permitted to the user in the determining step And a device control unit configured to control the device based on the operation detected in the step.
本発明の第3の態様の機器制御システムは、機器と、前記機器を制御する機器制御装置とを備え、前記機器制御装置は、ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、前記ユーザの特徴情報を取得する取得部と、前記取得部が取得した前記特徴情報に基づいて、前記機器の制御を前記ユーザに許可するか否かを判定する判定部と、前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、を有し、前記機器は、前記機器制御部による前記制御に従って作動する。 An apparatus control system according to a third aspect of the present invention includes an apparatus and an apparatus control apparatus for controlling the apparatus, wherein the apparatus control apparatus operates the user based on an image obtained by imaging the user. A detection unit that detects, an acquisition unit that acquires characteristic information of the user, and a determination unit that determines whether to permit the user to control the device based on the characteristic information acquired by the acquisition unit And a device control unit configured to control the device based on the operation detected by the detection unit when the determination unit grants control of the device to the user, the device including the device It operates according to the said control by a control part.
本発明によれば、ユーザの動作に基づいて機器の制御を行う際に、動作の誤検出を抑制できる。 According to the present invention, it is possible to suppress erroneous detection of an operation when controlling a device based on the user's operation.
(第1の実施形態)
図1は、本実施形態に係る機器制御システムSの模式図である。機器制御システムSは、機器制御装置としての制御サーバ1と、様々な情報を取得する1つ又は複数のセンサ装置2と、制御サーバ1によって制御される1つ又は複数の機器3と、通信を仲介するゲートウェイ4と、を含む。機器制御システムSは、その他のサーバ、端末等の機器を含んでもよい。
First Embodiment
FIG. 1 is a schematic view of a device control system S according to the present embodiment. The device control system S communicates with the
機器3は、制御サーバ1からの制御信号を受けることによって、オン、オフ、調節等の制御がなされる被制御機器である。機器3として、照明、空調機器、AV機器等、任意の機器を用いることができる。機器3は、制御サーバ1による制御だけでなく、ユーザによる操作によって作動してもよい。機器3は、通信モジュールを有しており、有線通信又は無線通信によってゲートウェイ4を介して制御サーバ1と通信する。
The
センサ装置2は、画像、音声、温度等の情報を測定して取得する。センサ装置2は、情報の取得に必要な各種のセンサを有する。センサ装置2は機器3に内蔵されてもよく、あるいは独立して設置されてもよい。センサ装置2は、通信モジュールを有しており、有線通信又は無線通信によってゲートウェイ4を介して制御サーバ1と通信する。
The
ゲートウェイ4は、センサ装置2、機器3及び制御サーバ1の間で授受される信号に対してプロトコル変換等の処理を行って通信可能にする中継装置である。ゲートウェイ4は、有線接続又は無線接続によってセンサ装置2及び機器3のそれぞれに接続され、またローカルエリアネットワーク、インターネット等の任意のネットワークNを介して制御サーバ1に接続される。
The gateway 4 is a relay device that performs processing such as protocol conversion on signals transmitted and received between the
制御サーバ1は、センサ装置2、機器3及びゲートウェイ4が設置されている建物の外部において、有線通信又は無線通信によってネットワークNに接続される。制御サーバ1は、単一のコンピュータ、又はコンピュータ資源の集合であるクラウドによって構成される。制御サーバ1は、センサ装置2が測定した情報を示す信号を、ゲートウェイ4を介して受信する。次に制御サーバ1は、センサ装置2からの情報に基づいて、制御対象の機器3及び制御内容を判定する。そして制御サーバ1は、制御内容を示す信号を、ゲートウェイ4を介して機器3へ送信する。
The
[ユーザの動作の説明]
図2(a)、図2(b)は、本実施形態に係る制御サーバ1が検出するユーザの動作を示す模式図である。ユーザの動作は、特定動作及び調整動作を含む。特定動作(第1の動作)は制御対象の機器3を指定する動作であり、調整動作(第2の動作)は制御内容を指定する動作である。
[Description of user operation]
FIG. 2A and FIG. 2B are schematic views showing the operation of the user detected by the
図2(a)の例では、特定動作は制御対象の機器3に向けて指を差す行為であり、調整動作は特定動作の後に手を開く行為(すなわち手をパーの形にすること)である。これにより、制御サーバ1は、指差し方向(すなわち指の延長線上)に位置する機器3を制御対象として選択し、手を開く行為に対応する制御内容(例えば機器3をオンにすること)を決定する。
In the example of FIG. 2A, the specific action is an action of pointing a finger toward the
調整動作は、特定動作の後に手の形状を変化させたり、手を動かしたりする行為である。図2(b)の例では、特定動作はユーザが特定のソファ上に寝る行為であり、調整動作は特定動作の後に手を握る行為(すなわち手をグーの形にすること)である。これにより、制御サーバ1は、ソファに関連付けられた機器3(例えばソファの上方に位置する照明)を制御対象として選択し、手を握る行為に対応する制御内容(例えば機器3をオフにすること)を決定する。
The adjustment operation is an action of changing the shape of the hand or moving the hand after the specific operation. In the example of FIG. 2 (b), the specific action is an action of the user sleeping on a specific sofa, and the adjustment action is an action of holding a hand after the specific action (i.e., forming a hand). Thereby, the
図2(a)、図2(b)に示したユーザの動作は一例であり、制御サーバ1はユーザを撮像して得られた画像から判定可能な所定の動作を検出するように構成される。ユーザの動作として、特定動作及び調整動作の2つの動作に限らず、制御対象及び制御内容を同時に指定する1つの動作を用いてもよく、あるいは3つ以上の動作を組み合わせて用いてもよい。
The operation of the user shown in FIGS. 2A and 2B is an example, and the
[制御データベースDの説明]
図3は、本実施形態に係る制御サーバ1で用いられる制御データベースDを示す模式図である。制御データベースDは、ユーザの動作から制御対象の機器3及び制御内容を決定するための情報である。制御データベースDは、機器番号D1、位置情報D2、特定動作D3及び調整動作D4を関連付けて記憶する。
[Description of control database D]
FIG. 3 is a schematic view showing a control database D used by the
機器番号D1は、機器3を識別するための番号である。機器番号D1は、例えば登録された機器3の通し番号でもよく、機器3に予め付与されたMAC(Media Access Control)アドレス等でもよい。
The device number D1 is a number for identifying the
位置情報D2は、機器3の位置を示す情報であり、例えば建物の所定の点を基準とした3次元座標X、Y、Zで表される。機器3の位置は、ユーザによって指差しの動作が行われた際に、指差し方向に位置する機器3を特定するために使用される。機器3の位置は、例えばセンサ装置2によって機器3を撮像して得られた画像から制御サーバ1が推定する。あるいは、ユーザが携帯端末のアプリケーション等を用いて各機器3の位置を制御サーバ1に設定してもよい。この場合には、例えばユーザはアプリケーション上で座標情報を入力する、あるいはアプリケーションに表示された建物内のマップにマークをつけることによって、機器3の位置を制御サーバ1に設定する。本実施形態では3次元座標を用いているが、高さ方向の座標を除いて2次元座標を用いてもよい。この場合には、高さを区別せずに水平方向の位置によって機器3が特定される。
The position information D2 is information indicating the position of the
特定動作D3は、制御対象の機器3を指定する動作を示す情報である。特定動作D3として、例えば図2(a)に示した指を差すこと、図2(b)に示した特定の場所で特定の動作をすること等を用いることができる。1つの機器3(機器番号D1)に対して、複数の特定動作D3が設定されてもよい。
The specific operation D3 is information indicating an operation of specifying the
調整動作D4は、制御内容を指定する動作を示す情報である。調整動作D4として、例えば図2(a)に示した手を開くこと、図2(b)に示した手を握ることのほか、手を特定の形状にして特定の方向に動かすこと等を用いることができる。調整動作D4が指定する制御内容として、オン、オフ、調節等、機器3が実行可能ないずれかの作動を用いることができる。1つの機器3(機器番号D1)に対して、複数の調整動作D4が設定されてもよい。
The adjustment operation D4 is information indicating an operation of specifying the control content. As the adjustment operation D4, for example, the hand shown in FIG. 2A, the hand held in FIG. 2B, the hand having a specific shape and moving in a specific direction, etc. are used. be able to. As control contents designated by the adjustment operation D4, any operation that can be executed by the
各機器3に対する特定動作D3及び調整動作D4は、予め制御サーバ1に設定されてもよい。あるいはユーザが携帯端末のアプリケーション等を用いて各機器3に対する任意の特定動作D3及び調整動作D4を制御サーバ1に設定してもよい。
The specific operation D3 and the adjustment operation D4 for each
図3に示した制御データベースDは一例であり、制御データベースDの内容及び形式は、本実施形態に係る機器制御方法で利用可能である限り任意に設定される。図3において、制御データベースDは視認性のために文字列の表で表されているが、制御サーバ1が解釈可能な任意のデータ形式(ファイル形式)で表されてもよく、例えばバイナリデータ又はテキストデータでよい。制御データベースDは制御サーバ1の内部に記憶されてもよく、制御サーバ1の外部の記憶装置に記憶されてもよい。
The control database D shown in FIG. 3 is an example, and the contents and format of the control database D are arbitrarily set as long as they can be used in the device control method according to the present embodiment. In FIG. 3, the control database D is represented by a table of character strings for visibility, but may be represented by any data format (file format) interpretable by the
[機器制御システムSの構成]
図4は、本実施形態に係る機器制御システムSのブロック図である。図4において、矢印は主なデータの流れを示しており、図4に示したもの以外のデータの流れがあってよい。図4において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図4に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of Device Control System S]
FIG. 4 is a block diagram of the device control system S according to the present embodiment. In FIG. 4, arrows indicate the flow of main data, and there may be flows of data other than those shown in FIG. In FIG. 4, each block is not a hardware (apparatus) -based configuration but a function-based configuration. As such, the blocks shown in FIG. 4 may be implemented in a single device or may be implemented separately in multiple devices. Transfer of data between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, and the like.
センサ装置2は、画像センサ21と、距離センサ22と、音声センサ23と、温度センサ24と、を有する。画像センサ21は、撮像した画像を示す情報を出力する撮像素子を有するカメラである。距離センサ22は、例えば赤外線や超音波を被写体(ユーザ)に照射することによって測定した距離を示す情報を出力するセンサである。距離センサ22は、複数の方向に対して距離の測定を行い、いずれの方向への距離であるかを特定できるように構成されることが望ましい。距離センサ22を省略し、制御サーバ1は画像センサ21によって撮像された画像からユーザへの距離を算出してもよい。この場合には、制御サーバ1は、複数の画像センサ21によって複数の方向から撮像された画像から、ユーザの位置を推定する。
The
音声センサ23は、周囲から取得した音声を示す情報を出力するマイクロフォンである。音声センサ23は、例えば複数の指向性マイクロフォンを搭載し、いずれの方向からの音声であるかを特定できるように構成されることが望ましい。温度センサ24は、周囲から取得した温度を示す情報を出力するセンサである。温度センサ24は、例えば複数の放射温度計を搭載し、いずれの方向の温度であるかを特定できるように構成されることが望ましい。センサ21〜24からのアナログ信号のデジタルデータへの変換は、各センサ内で行われてもよく、制御サーバ1によって行われてもよい。
The
制御サーバ1は、制御部11と、通信部12と、記憶部13と、を有する。制御部11は、動作検出部111と、特徴情報取得部112と、ユーザ判定部113と、機器制御部114とを有する。
The
通信部12は、ゲートウェイ4を介してセンサ装置2及び機器3との間で通信をするための通信インターフェースである。通信部12は、センサ装置2及び機器3から受信した通信信号に所定の処理を行ってデータを取得し、取得したデータを制御部11に入力する。また、通信部12は、制御部11から入力されたデータに所定の処理を行って通信信号を生成し、生成した通信信号をセンサ装置2及び機器3に送信する。
The
記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部13は、制御部11が実行するプログラムを予め記憶している。
The
制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部13に記憶されたプログラムを実行することにより、動作検出部111、特徴情報取得部112、ユーザ判定部113及び機器制御部114として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
The
本実施形態に係る機器制御システムSは、図4に示す具体的な構成に限定されない。例えば制御サーバ1は、1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
The device control system S according to the present embodiment is not limited to the specific configuration shown in FIG. For example, the
動作検出部111は、センサ装置2によって撮像された画像が示すユーザの動作に基づいて、制御対象の機器3及び制御内容を決定する。具体的には、まず動作検出部111は、通信部12を介してセンサ装置2からの情報を受信する。動作検出部111は、受信した情報からセンサ装置2の画像センサ21によって撮像された画像を取得する。動作検出部111は、取得した画像に対して3次元認識の画像解析技術を適用し、ユーザの動作及び位置を検出する。3次元認識の画像解析技術として、公知の技術を用いることができる。制御データベースDに含まれるいずれかの特定動作(すなわち特定動作D3)に合致する動作が検出されるまで、動作検出部111は動作の検出を繰り返す。
The
指差しの特定動作が検出された場合に、動作検出部111は、制御データベースDにおける各機器3の位置情報D2から、検出されたユーザの位置を起点とした指の延長線上に位置する機器3(すなわち機器番号D1)を制御対象として決定する。その他の特定動作(図3におけるソファに寝ること等)が検出された場合に、動作検出部111は、制御データベースDにおいて該特定動作に関連付けられている機器3を制御対象として決定する。
When a finger pointing specific motion is detected, the
制御対象が決定された後、動作検出部111は、次のフレーム(あるいは所定時間後)の画像を取得して、同様に3次元認識の画像解析技術を適用し、ユーザの動作を検出する。制御データベースDに含まれるいずれかの調整動作(すなわち調整動作D4)に合致する動作が検出されるまで、動作検出部111は動作の検出を繰り返す。特定動作が検出された後、所定時間経過しても調整動作が検出されない場合には、動作検出部111は特定動作の検出に戻る。調整動作が検出された場合に、動作検出部111は、制御データベースDにおいて該調整動作が指定する内容(オン、オフ、調節等)を制御内容として決定する。
After the control target is determined, the
動作の誤検出を抑制するために、動作検出部111は、同一の動作が所定時間継続された場合に、該動作に合致する特定動作又は調整動作を検出してもよい。
In order to suppress erroneous detection of an operation, the
動作検出部111がユーザの動作に関連付けられた制御対象及び制御内容を決定した場合に、特徴情報取得部112は、センサ装置2からの画像、距離、音声及び温度を、通信部12を介して受信してユーザの特徴情報として取得する。
When the
ユーザ判定部113は、特徴情報取得部112が取得した特徴情報に基づいて、動作検出部111が決定した制御対象及び制御内容の実行を、動作を行ったユーザに許可するか否か判定する。具体的には、ユーザ判定部113は、特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータを用いて、制御の許可又は拒否を判定する。
Based on the feature information acquired by the feature
ユーザの顔を用いた判定を行うために、記憶部13には、動作による制御を許可するユーザの顔情報が予め記憶される。記憶部13に記憶される顔情報は、顔画像でもよく、顔画像から算出された特徴量でもよい。ユーザ判定部113は、人物認識技術を用いて、特徴情報取得部112が取得した特徴情報が示す画像から、動作検出部111が動作を検出したユーザの顔領域を特定し、記憶部13に予め登録された各ユーザの顔情報と比較する。人物認識技術として、公知の技術を用いることができる。そしてユーザ判定部113は、画像中の顔領域が記憶部13に予め登録されたいずれかのユーザの顔情報に合致する場合に制御を許可し、そうでない場合に制御を拒否する。
In order to make the determination using the face of the user, the
別の方法として、ユーザ判定部113は、人物認識技術によって、画像中の顔領域から年齢を推定し、推定した年齢が所定の範囲内(例えば所定値以上)である場合に制御を許可し、そうでない場合に制御を拒否してもよい。人物認識技術として、公知の技術を用いることができる。
As another method, the
ユーザの声を用いた判定を行うために、記憶部13には、動作による制御を許可するユーザの声情報が予め記憶される。記憶部13に記憶される声情報は、音声データでもよく、声から算出された特徴量(声紋)でもよい。ユーザ判定部113は、特徴情報が示す複数の方向の音声のうち、動作検出部111が動作を検出したユーザが位置する方向の音声を、ユーザの声と推定する。次にユーザ判定部113は、音声分析技術を用いて、推定したユーザの声を、記憶部13に予め登録された各ユーザの声情報と比較する。音声分析技術として、公知の技術を用いることができる。そしてユーザ判定部113は、推定したユーザの声が記憶部13に予め登録されたいずれかのユーザの声情報に合致する場合に制御を許可し、そうでない場合に制御を拒否する。
In order to make a determination using the voice of the user, voice information of the user who permits control by the operation is stored in advance in the
別の方法として、ユーザ判定部113は、音声分析技術によって、音声から年齢を推定し、推定した年齢が所定の範囲内(例えば所定値以上)である場合に制御を許可し、そうでない場合に制御を拒否してもよい。音声分析技術として、公知の技術を用いることができる。
As another method, the
ユーザの体の大きさを用いた判定を行うために、ユーザ判定部113は、人体検出技術を用いて、特徴情報取得部112が取得した特徴情報が示す画像から、動作検出部111が動作を検出したユーザの人体領域を特定し、さらにセンサ装置2から特定した人体領域までの距離を特徴情報取得部112が取得した特徴情報が示す距離から特定する。人体検出技術として、公知の技術を用いることができる。
In order to make a determination using the size of the user's body, the
具体的には、ユーザ判定部113は、特徴情報が示す複数の方向の距離のうち、動作検出部111が動作を検出したユーザが位置する方向の距離を、人体領域までの距離として特定する。そしてユーザ判定部113は、特定した人体領域の画像中の大きさと、特定した距離とから、3次元空間におけるユーザの実際の大きさを推定する。ユーザの大きさとして、ユーザの体全体の大きさ(例えば身長)、あるいはユーザの体の一部(例えば手の平)の大きさを用いることができる。ユーザ判定部113は、推定したユーザの大きさ(例えば身長又は手の平の大きさ)が所定の範囲内(例えば所定値以上)である場合に制御を許可し、そうでない場合に制御を拒否する。
Specifically, the
ユーザの体温を用いた判定を行うために、ユーザ判定部113は、特徴情報取得部112が取得した特徴情報が示す温度から、動作検出部111が動作を検出したユーザの体温(皮膚温)を推定する。具体的には、ユーザ判定部113は、特徴情報が示す複数の方向の温度のうち、動作検出部111が動作を検出したユーザが位置する方向の温度を、ユーザの体温と推定する。そしてユーザ判定部113は、推定したユーザの体温が所定の範囲内(例えば所定値以下)である場合に制御を許可し、そうでない場合に制御を拒否する。
From the temperature indicated by the feature information acquired by the feature
ユーザの過去の動きを用いた判定を行うために、記憶部13には、特徴情報取得部112が取得した特徴情報が示す画像中のユーザの過去の所定時間内の動き(移動)が記憶される。ユーザの動きとして、上述の人体検出技術を用いて検出された人体の時系列の位置を用いることができる。ユーザ判定部113は、動作検出部111が動作を検出したユーザの過去の所定時間内の動きを記憶部13から取得し、動きの速さ及び方向を算出する。そしてユーザ判定部113は、算出したユーザの動きの速さ及び方向が所定の条件(例えば速さが所定値以下、かつ方向が水平方向)を満たす場合に制御を許可し、そうでない場合に制御を拒否する。
In order to perform determination using the past motion of the user, the
ユーザが座ったり立ったりすることによって、ユーザの見かけの身長は変化する。ユーザ判定部113は、ユーザの身長を適切に判定するために、ユーザの過去の動きを用いてもよい。この場合には、ユーザ判定部113は、動作検出部111が動作を検出したユーザの過去の所定時間内の動きを記憶部13から取得し、該動き(例えば同じ位置で上下方向に動いたこと)からユーザが座ったこと又は立ったことを判定する。そしてユーザ判定部113は、ユーザが座っていると判定する場合には、画像から推定した見かけの身長を大きく(例えば1.5倍に)補正する。
The apparent height of the user changes as the user sits and stands. The
ユーザ判定部113は、上述のユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータの全てが条件を満たす場合に制御の許可を判定してもよく、それらのパラメータのうち一部が条件を満たす場合に制御の許可を判定してもよい。制御の許可の判定のためにより多くの条件を用いるほど、誤検出を抑止する精度が向上するため好ましい。
The
機器制御部114は、ユーザ判定部113がユーザによる制御を許可することを判定した場合に、動作検出部111によって決定された制御内容に従って制御を行うための制御信号を生成し、通信部12を介して動作検出部111によって決定された制御対象の機器3に送信する。
When the
機器3は、ゲートウェイ4を介して制御サーバ1から受信した制御信号に従って、オン、オフ、調節等の所定の作動を行う。
The
このように、本実施形態に係る制御サーバ1は、動作(ジェスチャ)を行ったユーザの特徴情報に基づいて、動作による機器3の制御を許可するか否か判定するため、例えば子どもの動作によって意図しない制御が行われることを抑制することができる。
As described above, the
センサ装置2から制御サーバ1へ画像を常時送信すると通信負荷が大きいため、センサ装置2は、画像から所定の動作(特定動作及び調整動作)に近い動作を検出した場合にのみ、制御サーバ1への画像の送信を開始してもよい。この場合には、センサ装置2は動作検知ソフトウェアを実行するコンピュータとして構成され、特定動作及び調整動作に近い動作を予め登録する。センサ装置2は、該動作検知ソフトウェアを用いて、画像センサ21が撮像した画像から予め登録された動作を検知した場合に、制御サーバ1への画像の送信を開始する。これにより、センサ装置2から制御サーバ1へ送信されるデータの通信量を低減することができる。
If an image is constantly transmitted from the
[機器制御方法のフローチャート]
図5は、本実施形態に係る機器制御方法のフローチャートを示す図である。図5のフローチャートは、例えばユーザが制御サーバ1に対して所定の開始操作を行うことによって開始される。
[Flowchart of Device Control Method]
FIG. 5 is a diagram showing a flowchart of the device control method according to the present embodiment. The flowchart of FIG. 5 is started, for example, when the user performs a predetermined start operation on the
まず動作検出部111は、センサ装置2によって撮像された画像からユーザの動作(すなわち上述の特定動作及び調整動作)を検出し、検出した動作に基づいて制御対象の機器3及び制御内容を決定する(S1)。
First, the
ステップS1で動作検出部111が動作を検出しない場合に(S2のNO)、制御サーバ1はステップS1に戻って処理を繰り返す。ステップS1で動作検出部111が動作を検出した場合に(S2のYES)、制御サーバ1は図6で後述するユーザ判定処理を実行する(S3)。
When the
ステップS3のユーザ判定処理で制御が許可された場合に(S4のYES)、機器制御部114は、S1で動作に基づいて決定された制御内容に従って制御を行うための制御信号を生成し、S1で動作に基づいて決定された制御対象の機器3に通信部12を介して送信する(S5)。ステップS3のユーザ判定処理で制御が拒否された場合に(S4のNO)、制御サーバ1はステップS5を行わずに次に進む。
When control is permitted in the user determination process of step S3 (YES in S4), the
所定の終了条件(例えばユーザが制御サーバ1に対して所定の終了操作を行うこと)が満たされない場合に(S6のNO)、制御サーバ1はステップS1に戻って処理を繰り返す。所定の終了条件が満たされる場合に(S6のYES)、制御サーバ1は処理を終了する。
If a predetermined termination condition (for example, the user performs a predetermined termination operation on the control server 1) is not satisfied (NO in S6), the
[ユーザ判定処理のフローチャート]
図6は、本実施形態に係るユーザ判定処理のフローチャートを示す図である。図6のフローチャートは、図5の機器制御方法のステップS3で実行される。
[Flowchart of user determination processing]
FIG. 6 is a view showing a flowchart of user determination processing according to the present embodiment. The flowchart of FIG. 6 is executed in step S3 of the device control method of FIG.
特徴情報取得部112は、センサ装置2からの画像、距離、音声及び温度を、通信部12を介して受信してユーザの特徴情報として取得する(S31)。ユーザ判定部113は、ステップS31で特徴情報取得部112が取得した特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータがそれぞれ所定の条件を満たすか否かを判定する(S32)。
The feature
ステップS32で特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータのうち少なくとも1つが所定の条件を満たすとユーザ判定部113が判定した場合に(S33のYES)、ユーザ判定部113は、ユーザに対して制御を許可することを判定する(S34)。
If the
ステップS32で特徴情報から抽出したユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータがいずれも所定の条件を満たさないとユーザ判定部113が判定した場合に(S33のNO)、ユーザ判定部113は、ユーザに対して制御を拒否することを判定する(S35)。
When the
ステップS32において、ユーザ判定部113はユーザの特徴情報から抽出される顔、声、体の大きさ、体温及び過去の動きのパラメータのうち少なくとも1つが条件を満たす場合に制御を許可するが、該パラメータの全てが条件を満たす場合に制御を許可してもよい。これらに限られず、制御の許可に必要な条件は制御サーバ1に任意に設定される。
In step S32, the
ステップS34で制御の許可が判定された後、又はステップS35で制御の拒否が判定された後、制御サーバ1は図5のフローチャートに戻る。
After permission of control is determined in step S34 or after determination of refusal of control in step S35, the
[第1の実施形態の効果]
子供は、手を上げる、走る、跳ねる等の多彩な動きを行うことが多い。本実施形態に係る制御サーバ1は、子供と大人を区別可能なユーザの特徴情報を用いて、ユーザの動作による制御の可否を判定する。
[Effect of First Embodiment]
Children often perform various movements such as raising their hands, running and jumping. The
子供の顔と大人の顔とはしわ等によって区別できることから、制御サーバ1はユーザの顔によって子供及び大人を区別する。また、子供の声は大人の声よりも高い傾向があることから、制御サーバ1はユーザの声によって子供及び大人を区別する。また、子供の体は大人の体よりも小さい傾向があることから、制御サーバ1はユーザの体の大きさ(例えば身長や手の平の大きさ)によって子供及び大人を区別する。また、子供の体温(皮膚温)は大人の体温よりも高い傾向があることから、制御サーバ1はユーザの体温によって子供及び大人を区別する。また、子供は走ったり跳ねたりする傾向があることから、制御サーバ1はユーザの過去の動き(速さ及び方向)によって子供及び大人を区別する。
Since the face of the child and the face of the adult can be distinguished by wrinkles etc., the
そして制御サーバ1は、大人と推定されるユーザが行った動作による機器の制御を許可し、子供と推定されるユーザが行った動作による機器の制御を拒否する。このような構成により、子供が行う様々な動作を機器の制御の動作として誤検出することを抑制できる。
Then, the
また、制御サーバ1は、子供と大人の区別に限らず、顔や声が登録済のユーザか否かを判別することによって、未登録のユーザが行った動作を誤検出して機器の制御を行うことを抑制できる。
In addition, the
[第1の実施形態の変形例]
上述の機器制御方法では、制御サーバ1は常に動作の検出を行っているが、特定の開始音声を検出したことをトリガとして動作の検出を開始してもよい。この場合には、センサ装置2は、マイクロフォン等の音声センサを備える。まず制御サーバ1は、開始音声が検出される前には動作の検出を行わず、開始音声の検出を開始する。制御サーバ1は、センサ装置2の音声センサから取得した音声から、所定の開始音声を検出する。開始音声は、例えば「OK」、「Hi」等の制御サーバ1に記憶された音声である。また、開始音声は、ユーザが制御サーバ1に予め録音した音声でもよい。
[Modification of First Embodiment]
In the above-described device control method, the
例えば制御サーバ1は、センサ装置2の音声センサから取得した音声に対して音声認識技術を適用し、該音声に開始音声に対応する言語が含まれている場合に、開始音声を検出してもよい。音声認識技術として、公知の技術を用いることができる。また、制御サーバ1は、センサ装置2の音声センサから取得した音声の周波数スペクトルに、予め録音された開始音声の周波数スペクトルの所定の割合以上が含まれている場合に、開始音声を検出してもよい。所定の割合は、開始音声と一致していると考えられる程度の割合であり、例えば90%である。また、制御サーバ1は、センサ装置2の音声センサから取得した音声の周波数スペクトルのパターンと、予め録音された開始音声の周波数スペクトルのパターンとの相関度が所定値以上である場合に、開始音声を検出してもよい。
For example, the
そして制御サーバ1は、開始音声を検出した場合に、動作の検出を開始して上述の機器制御方法を行う。制御サーバ1は、開始音声が検出された時点から所定の時間が経過した場合に、動作の検出を停止し、再び開始音声の検出を行う。
Then, when detecting the start voice, the
このような構成により、制御サーバ1は、開始音声を検出した後の所定期間のみ、画像からの動作の検出を行う。そのため、制御サーバ1の処理負荷及び通信負荷を軽減することができる。
With such a configuration, the
(第2の実施形態)
第1の実施形態において制御サーバ1は建物の外部に配置され、ネットワークNを介してセンサ装置2及び機器3と通信する。そのため、ネットワークNの通信状況によっては動作の検出及び機器の制御の実行に時間が掛かるおそれがある。また、センサ装置2から制御サーバ1へ画像を常時送信すると通信負荷が大きい。それに対して、本実施形態では、建物の外部に配置された制御サーバ1−1に加えて、建物内に制御サーバ1−2を設ける。建物内に制御サーバ1−2を設けることによって、動作の検出及び機器の制御の実行に掛かる時間を短縮できる。これにより、直接機器のスイッチやリモコンに触れて操作を行うことと比較して、時間を掛けずに手間を削減できるため、ユーザにとっての利便性が向上する。
Second Embodiment
In the first embodiment, the
図7は、本実施形態に係る機器制御システムSの模式図である。機器制御システムSは、第1の実施形態と同様のセンサ装置2、機器3及びゲートウェイ4に加えて、建物外においてネットワークNに接続されている制御サーバ1−1、及び建物内においてゲートウェイ4とネットワークNとの間に接続されている制御サーバ1−2を含む。制御サーバ1−1及び制御サーバ1−2は、それぞれ図4の制御サーバ1と同様の構成を有する。
FIG. 7 is a schematic view of the device control system S according to the present embodiment. The device control system S includes, in addition to the
本実施形態では、建物内の制御サーバ1−2及び建物外の制御サーバ1−1の間で処理やデータを調整することによって、動作検出の速度及び精度のバランスをとる。例えば建物内の制御サーバ1−2において計算量の小さい動作検出処理を行い、建物外の制御サーバ1−1において計算量の大きい動作検出処理を行う。あるいは例えば建物内の制御サーバ1−2の記憶部13に少ない量の制御データベースDを記憶し、建物外の制御サーバ1−1の記憶部13に多い量の制御データベースDを記憶する。
In the present embodiment, the speed and accuracy of the motion detection are balanced by adjusting processing and data between the control server 1-2 in the building and the control server 1-1 outside the building. For example, the control server 1-2 in the building performs operation detection processing with a small amount of calculation, and the control server 1-1 outside the building performs operation detection processing with a large amount of calculation. Alternatively, for example, a small amount of control database D is stored in the
まず建物内の制御サーバ1−2は、センサ装置2からの情報に基づいて動作の検出を行う。そして制御サーバ1−2が動作を検出できなかった場合に、制御サーバ1−2は建物外の制御サーバ1−1にセンサ装置2からの情報を転送し、制御サーバ1−1は、センサ装置2からの情報に基づいて動作の検出を行う。制御サーバ1−2及び制御サーバ1−1のどちらか一方は、検出した動作に基づいて機器3の制御を行う。
First, the control server 1-2 in the building detects an operation based on the information from the
[第2の実施形態の効果]
一般的に、建物内の制御サーバ1−2はネットワークNを介さないため通信負荷が掛からないが、設置スペースや設置コストによって機器構成に制約がある。一方、建物外の制御サーバ1−1は高度な機器構成を備えることができるため高速に処理を行えるが、通信負荷が掛かる。そこで本実施形態に係る機器制御システムSは、建物内の制御サーバ1−2で簡易的な動作検出を行い、建物外の制御サーバ1−1で複雑な動作検出を行う。このような構成によって、動作検出の精度を維持しつつも動作検出の速度を向上できる。
[Effect of Second Embodiment]
Generally, the control server 1-2 in the building does not have a communication load because it does not go through the network N, but there is a restriction on the device configuration due to the installation space and the installation cost. On the other hand, the control server 1-1 outside the building can perform high-speed processing because it can have a high-level equipment configuration, but it imposes a communication load. Therefore, the device control system S according to the present embodiment performs simple operation detection in the control server 1-2 in the building, and performs complicated operation detection in the control server 1-1 outside the building. Such a configuration can improve the speed of motion detection while maintaining the accuracy of motion detection.
(第3の実施形態)
本実施形態は、ユーザの顔、声、体の大きさ、体温及び過去の動き等のユーザ自身の情報に加えて、ユーザのいる場所、ユーザが所持するデバイス及びユーザが動作を行った時間等のユーザをとりまく環境の情報を用いて、ユーザによる制御の可否を判定する。それ以外の構成及び処理は、第1の実施形態と同様である。
Third Embodiment
In this embodiment, in addition to the user's own information such as the user's face, voice, body size, body temperature, and past movements, the user's location, the device possessed by the user, the time when the user performed an action, etc. The information on the environment surrounding the user is used to determine whether the user can control. The other configurations and processes are similar to those of the first embodiment.
図8は、本実施形態に係る機器制御システムSのブロック図である。センサ装置2は、第1の実施形態と同様の画像センサ21、距離センサ22、音声センサ23及び温度センサ24に加えて、位置測定部25及び近距離通信部26を有する。
FIG. 8 is a block diagram of a device control system S according to the present embodiment. The
位置測定部25は、ユーザの位置を測定する。ユーザの位置は、例えばユーザのいる部屋を示す情報である。位置測定部25は、センサ装置2自身の位置及び建物の部屋割を示すマップを予め記憶する。そして位置測定部25は、画像センサ21が撮像した画像及び距離センサ22が測定した距離から、センサ装置2自身の位置を基準としたユーザの位置を推定することによって、ユーザがマップ上のどの部屋にいるかを特定する。あるいは位置測定部25は、複数の画像センサ21によって複数の方向から撮像された画像から、ユーザの位置を推定してもよい。位置測定部25は、ユーザの位置を示す情報を出力する。
The
近距離通信部26は、ユーザの所持するデバイスとの間で近距離通信を行うためのアンテナ等を有する通信インターフェースである。近距離通信は、例えばBluetooth(登録商標)である。ユーザの所持するデバイスは、例えば近距離通信機能を有する腕時計である。近距離通信部26は、ユーザの所持するデバイスを識別する情報を予め記憶する。近距離通信部26は、ユーザの所持するデバイスに対して近距離通信を試行し、近距離通信の可否を示す情報を出力する。
The short
特徴情報取得部112は、センサ装置2から、画像、距離、音声及び温度に加えて、ユーザの位置及び近距離通信の可否を、特徴情報として取得する。また、特徴情報取得部112は、動作検出部111が動作を検出した時間を、特徴情報として取得する。
The feature
ユーザ判定部113は、第1の実施形態と同様のユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータに加えて、特徴情報から抽出したユーザの位置、近距離通信の可否、及びユーザが動作を行った時間のパラメータを用いて、制御の許可又は拒否を判定する。
The
ユーザの位置を用いた判定を行うために、記憶部13には、建物内の位置(例えば部屋)ごとの判定基準が予め記憶される。そしてユーザ判定部113は、記憶部13に記憶された位置ごとの判定基準に従って、特徴情報取得部112が取得した特徴情報が示すユーザの位置に対応する判定基準を設定する。例えばユーザ判定部113は、居間では身長が小さいユーザによる制御を許可し、書斎では身長が小さいユーザによる制御を拒否する。このような構成により、例えば子供の動作による制御の可否を部屋ごとに設定することができる。
In order to make a determination using the position of the user, the
ユーザが所持するデバイスを用いた判定を行うために、ユーザ判定部113は、特徴情報取得部112が取得した特徴情報が示す近距離通信の可否から、動作を行ったユーザがデバイスを所持しているか否かを判定する。具体的には、ユーザ判定部113は、近距離通信が可能な場合にユーザがデバイスを所持していると判定し、そうでない場合にデバイスを所持していないと判定する。そしてユーザ判定部113は、ユーザがデバイスを所持していると判定した場合に制御を許可し、そうでない場合に制御を拒否する。このような構成により、特定のデバイスを身に着けているユーザに動作による制御を許可することができる。
In order to make a determination using the device possessed by the user, the
ユーザが動作を行った時間を用いた判定を行うために、記憶部13には、時間帯ごとの判定基準が予め記憶される。そしてユーザ判定部113は、記憶部13に記憶された時間帯ごとの判定基準に従って、特徴情報取得部112が取得した特徴情報が示すユーザが動作を行った時間に対応する判定基準を設定する。例えばユーザ判定部113は、昼間には身長が小さいユーザによる制御を許可し、夜間には身長が小さいユーザによる制御を拒否する。このような構成により、例えば子供の動作による制御の可否を時間帯ごとに設定することができる。
In order to perform determination using the time when the user performed an operation, the
ユーザ判定部113は、ユーザのいる場所、ユーザが所持するデバイス及びユーザが動作を行った時間等のユーザをとりまく環境の情報のみに用いて制御の可否を判定してもよく、環境の情報をユーザの顔、声、体の大きさ、体温及び過去の動き等のユーザ自身の情報と組み合わせて制御の可否を判定してもよい。
The
[第3の実施形態の効果]
本実施形態では、ユーザをとりまく環境に基づいて動作による制御の可否を判定することによって、第1の実施形態と同様の効果を奏する。さらに、顔や身長のようなユーザ自身の情報に、位置や時間のような環境の情報を組み合わせることによって、より細かい制御可否の判定を行うことができる。
[Effect of the third embodiment]
In this embodiment, the same effect as that of the first embodiment is obtained by determining whether or not control by operation is possible based on the environment surrounding the user. Furthermore, by combining the information of the user's own such as the face and the height with the information of the environment such as the position and the time, it is possible to determine whether or not the control is finer.
(第4の実施形態)
本実施形態は、複数のユーザの動作が同時に検出された場合に、ユーザの特徴情報に基づいて優先度を決定し、該優先度に従っていずれかのユーザの動作による制御を行う。これにより、例えば大人と子供が同時に動作を行った場合に、大人の動作を優先して制御を許可することができる。なお、ここでの同時とは、実質的に同時であることを含む。
Fourth Embodiment
In the present embodiment, when the actions of a plurality of users are simultaneously detected, the priority is determined based on the user's feature information, and the control by any user's action is performed according to the priorities. Thereby, for example, when an adult and a child operate at the same time, control can be permitted by giving priority to the operation of the adult. Note that simultaneous here includes substantially simultaneous.
複数のユーザの動作が同時に行われた場合に、動作検出部111は、それぞれのユーザの動作及び位置を検出する。そして動作検出部111は、それぞれのユーザの動作に関連付けられた制御対象及び制御内容を決定する。
When a plurality of user actions are performed simultaneously, the
特徴情報取得部112は、通信部12を介してセンサ装置2からの情報を受信し、該情報が示す画像、距離、音声及び温度を、特徴情報として取得する。特徴情報には複数の方向の距離、音声及び温度の一又は複数の情報が含まれており、画像中のいずれのユーザに係る情報であるか特定可能である。
The feature
ユーザ判定部113は、特徴情報取得部112が取得した複数のユーザの特徴情報に基づいて、動作検出部111が決定した制御対象及び制御内容の実行をいずれのユーザに許可するか判定する。具体的には、ユーザ判定部113は、複数のユーザのそれぞれについて特徴情報から顔、声、体の大きさ、体温及び過去の動きのパラメータを抽出し、それらが条件を満たすか否かに基づいて優先度を決定する。各パラメータに適用する条件は、第1の実施形態と同様である。優先度は、例えば条件を満たすパラメータが多いほど高く、少ないほど低く設定される。また、パラメータの種類ごとに優先度への貢献が異なるように(例えば顔の条件を満たす場合には体温の条件を満たす場合よりも優先度が高いように)設定されてもよい。ここに示した優先度は一例であり、ユーザによって任意に優先度が設定されてもよい。
The
そしてユーザ判定部113は、複数のユーザのうち最も優先度が高い1人のユーザを選択し、選択した1人のユーザの動作による制御を許可し、他のユーザの動作による制御を拒否する。
Then, the
[第4の実施形態の効果]
本実施形態では、複数のユーザによる動作が同時に行われた場合であっても、特徴情報に基づいて決定された優先度に従っていずれかのユーザを選択することによって、機器の制御を円滑に行うことができる。
[Effect of Fourth Embodiment]
In the present embodiment, even when operations by a plurality of users are simultaneously performed, the device control can be smoothly performed by selecting any one of the users according to the priority determined based on the feature information. Can.
(第5の実施形態)
第1の実施形態は動作を行ったユーザ自身の特徴情報に基づいて動作による制御の可否を判定するのに対して、本実施形態は動作を行った第1のユーザの近傍にいる第2のユーザの特徴情報に基づいて該動作による制御の可否を判定する。これにより、いわゆるペアレンタルコントロールのように、例えば子供単独の動作による制御を拒否し、大人が同伴している子供の動作による制御を許可することができる。
Fifth Embodiment
While the first embodiment determines whether or not control by an operation is possible based on the characteristic information of the user who performed the operation, the second embodiment is a second embodiment in the vicinity of the first user who performed the operation. Based on the user's feature information, it is determined whether or not the control by the operation is possible. Thus, for example, as in the case of so-called parental control, it is possible to deny control by the operation of the child alone and permit control by the operation of the child accompanied by an adult.
動作検出部111は、センサ装置2が撮像する画像中に第1のユーザ及び第2のユーザが存在する場合に、第1のユーザの動作及び位置を検出し、第1のユーザの動作に関連付けられた制御対象及び制御内容を決定する。特徴情報取得部112は、センサ装置2からの画像、距離、音声及び温度を、通信部12を介して受信して特徴情報として取得する。特徴情報には複数の方向の距離、音声及び温度の一又は複数の情報が含まれており、第1のユーザの近傍にいる第2のユーザに係る情報を特定可能である。
The
ユーザ判定部113は、特徴情報取得部112が取得した特徴情報のうち、第1のユーザの近傍にいる第2のユーザの特徴情報に基づいて、動作検出部111が決定した制御対象及び制御内容の実行を第1のユーザに許可するか否かを判定する。すなわち、ユーザ判定部113は、動作を行った第1のユーザではなく、その近傍に位置する第2のユーザの顔、声、体の大きさ、体温及び過去の動きのパラメータを抽出し、一又は複数のパラメータが条件を満たすか否かを判定する。各パラメータに適用する条件は、第1の実施形態と同様である。そしてユーザ判定部113は、第2のユーザのパラメータが条件を満たす場合に、第1のユーザの動作による制御を許可する。
The
[第5の実施形態の効果]
本実施形態では、動作を行った第1のユーザの近傍に位置する第2のユーザの特徴情報に基づいて制御の可否を判定するため、第1のユーザ自身が条件を満たしていなくとも動作による制御を許可することができる。
[Effect of Fifth Embodiment]
In this embodiment, since the controllability is determined based on the feature information of the second user located in the vicinity of the first user who performed the operation, the operation is performed even if the first user does not satisfy the condition. Control can be granted.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 As mentioned above, although the present invention was explained using an embodiment, the technical scope of the present invention is not limited to the range given in the above-mentioned embodiment, and various modification and change are possible within the range of the gist. is there. For example, a specific embodiment of device distribution and integration is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed and integrated in any unit. Can. In addition, new embodiments produced by any combination of a plurality of embodiments are also included in the embodiments of the present invention. The effects of the new embodiment generated by the combination combine the effects of the original embodiment.
制御サーバ1の制御部11(プロセッサ)は、図5、6に示す機器制御方法に含まれる各ステップ(工程)の主体となる。すなわち、制御部11は、図5、6に示す機器制御方法を実行するための機器制御プログラムを記憶部13から読み出し、該機器制御プログラムを実行して制御サーバ1の各部を制御することによって、図5、6に示す機器制御方法を実行する。図5、6に示す機器制御方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
The control unit 11 (processor) of the
S 機器制御システム
1 制御サーバ
111 動作検出部
112 特徴情報取得部
113 ユーザ判定部
114 機器制御部
3 機器
S
Claims (14)
前記ユーザの特徴情報を取得する取得部と、
前記取得部が取得した前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定する判定部と、
前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、
を有する機器制御装置。 A detection unit configured to detect an operation of the user from an image obtained by imaging the user;
An acquisition unit for acquiring the characteristic information of the user;
A determination unit that determines whether to permit the user to control the device based on the feature information acquired by the acquisition unit;
A device control unit that controls the device based on the operation detected by the detection unit when the determination unit grants control of the device to the user;
A device control device having
前記判定部は、前記大きさが所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1に記載の機器制御装置。 The acquisition unit acquires the size of at least a part of the user's body as the feature information.
The determination unit permits the user to control the device when the size is within a predetermined range.
The device control apparatus according to claim 1.
前記判定部は、前記声の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可する、
請求項1又は2に記載の機器制御装置。 The acquisition unit acquires information indicating a feature of the voice of the user as the feature information.
The determination unit permits the user to control the device when the information indicating the feature of the voice satisfies a predetermined condition.
The device control apparatus according to claim 1.
前記判定部は、前記顔の特徴を示す情報が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可する、
請求項1から3のいずれか一項に記載の機器制御装置。 The acquisition unit acquires information indicating the feature of the face of the user as the feature information.
The determination unit permits the user to control the device when the information indicating the feature of the face satisfies a predetermined condition.
The device control apparatus according to any one of claims 1 to 3.
前記判定部は、前記体温が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1から4のいずれか一項に記載の機器制御装置。 The acquisition unit acquires the temperature of the user as the feature information.
The determination unit permits the user to control the device when the body temperature is within a predetermined range.
The device control apparatus according to any one of claims 1 to 4.
前記判定部は、前記ユーザが前記所定のデバイスを所持している場合に、前記機器の制御を前記ユーザに許可する、
請求項1から5のいずれか一項に記載の機器制御装置。 The acquisition unit acquires, as the feature information, whether the user holds a predetermined device.
The determination unit permits the control of the device to the user when the user possesses the predetermined device.
The device control apparatus according to any one of claims 1 to 5.
前記判定部は、前記位置が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1から6のいずれか一項に記載の機器制御装置。 The acquisition unit acquires the position of the user as the feature information,
The determination unit permits the user to control the device when the position is within a predetermined range.
The device control apparatus according to any one of claims 1 to 6.
前記判定部は、前記時間帯が所定の範囲内である場合に、前記機器の制御を前記ユーザに許可する、
請求項1から7のいずれか一項に記載の機器制御装置。 The acquisition unit acquires, as the feature information, a time zone in which the operation is performed by the user.
The determination unit permits the user to control the device when the time zone is within a predetermined range.
The device control apparatus according to any one of claims 1 to 7.
前記判定部は、前記過去の動作が所定の条件を満たす場合に、前記機器の制御を前記ユーザに許可する、
請求項1から8のいずれか一項に記載の機器制御装置。 The acquisition unit acquires a past operation of the user as the feature information.
The determination unit permits the user to control the device when the past operation satisfies a predetermined condition.
The device control apparatus according to any one of claims 1 to 8.
請求項1から9のいずれか一項に記載の機器制御装置。 When the detection unit detects the motion by a plurality of the users, the determination unit selects one of the plurality of the users based on the feature information of the plurality of users acquired by the acquisition unit. , Allowing the selected one of the users to control the device,
The device control apparatus according to any one of claims 1 to 9.
請求項1から10のいずれか一項に記載の機器制御装置。 When there are a plurality of the users in the image, the control of the device is controlled to a second user different from the first user based on the characteristic information of the first user among the plurality of users. To give permission,
The device control apparatus according to any one of claims 1 to 10.
前記機器制御部は、前記第1の動作によって選択された前記機器に対して、前記第2の動作に対応する前記制御を行う、
請求項1から11のいずれか一項に記載の機器制御装置。 The detection unit detects, as the operation, a first operation of the user and a second operation of the user performed after the first operation.
The device control unit performs the control corresponding to the second operation on the device selected by the first operation.
The apparatus control apparatus as described in any one of Claims 1-11.
前記ユーザの特徴情報を取得するステップと、
前記取得するステップで取得された前記特徴情報に基づいて、機器の制御を前記ユーザに許可するか否かを判定するステップと、
前記判定するステップで前記機器の制御が前記ユーザに許可される場合に、前記検出するステップで検出された前記動作に基づいて前記機器の制御を行う機器制御部と、
を有する機器制御方法。 Detecting an action of the user from an image obtained by imaging the user;
Acquiring the characteristic information of the user;
Determining whether to permit the user to control the device based on the feature information acquired in the acquiring step;
A device control unit configured to control the device based on the operation detected in the detecting step when control of the device is permitted to the user in the determining step;
A device control method having:
前記機器制御装置は、
ユーザを撮像することによって得られた画像から前記ユーザの動作を検出する検出部と、
前記ユーザの特徴情報を取得する取得部と、
前記取得部が取得した前記特徴情報に基づいて、前記機器の制御を前記ユーザに許可するか否かを判定する判定部と、
前記判定部が前記機器の制御を前記ユーザに許可する場合に、前記検出部が検出した前記動作に基づいて前記機器の制御を行う機器制御部と、
を有し、
前記機器は、前記機器制御部による前記制御に従って作動する、機器制御システム。 An apparatus and an apparatus control device for controlling the apparatus;
The device control device
A detection unit configured to detect an operation of the user from an image obtained by imaging the user;
An acquisition unit for acquiring the characteristic information of the user;
A determination unit that determines whether to permit the user to control the device based on the feature information acquired by the acquisition unit;
A device control unit that controls the device based on the operation detected by the detection unit when the determination unit grants control of the device to the user;
Have
The device control system, wherein the device operates according to the control by the device control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017183398A JP6711799B2 (en) | 2017-09-25 | 2017-09-25 | Device control device, device control method, and device control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017183398A JP6711799B2 (en) | 2017-09-25 | 2017-09-25 | Device control device, device control method, and device control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019062270A true JP2019062270A (en) | 2019-04-18 |
JP6711799B2 JP6711799B2 (en) | 2020-06-17 |
Family
ID=66178275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017183398A Active JP6711799B2 (en) | 2017-09-25 | 2017-09-25 | Device control device, device control method, and device control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6711799B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113891159A (en) * | 2020-07-01 | 2022-01-04 | 丰田自动车株式会社 | Information processing apparatus, information processing method, and control system |
WO2023148800A1 (en) * | 2022-02-01 | 2023-08-10 | 日本電気株式会社 | Control device, control system, control method, and program |
US11971718B2 (en) * | 2021-11-15 | 2024-04-30 | Toyota Jidosha Kabushiki Kaisha | Control system, control method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004303251A (en) * | 1997-11-27 | 2004-10-28 | Matsushita Electric Ind Co Ltd | Control method |
JP2011505618A (en) * | 2007-11-21 | 2011-02-24 | ジェスチャー テック,インコーポレイテッド | Device access control |
JP2013080413A (en) * | 2011-10-05 | 2013-05-02 | Sony Corp | Input apparatus and input recognition method |
JP2014048937A (en) * | 2012-08-31 | 2014-03-17 | Omron Corp | Gesture recognition device, control method thereof, display equipment, and control program |
US20140359651A1 (en) * | 2011-12-26 | 2014-12-04 | Lg Electronics Inc. | Electronic device and method of controlling the same |
-
2017
- 2017-09-25 JP JP2017183398A patent/JP6711799B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004303251A (en) * | 1997-11-27 | 2004-10-28 | Matsushita Electric Ind Co Ltd | Control method |
JP2011505618A (en) * | 2007-11-21 | 2011-02-24 | ジェスチャー テック,インコーポレイテッド | Device access control |
JP2013080413A (en) * | 2011-10-05 | 2013-05-02 | Sony Corp | Input apparatus and input recognition method |
US20140359651A1 (en) * | 2011-12-26 | 2014-12-04 | Lg Electronics Inc. | Electronic device and method of controlling the same |
JP2014048937A (en) * | 2012-08-31 | 2014-03-17 | Omron Corp | Gesture recognition device, control method thereof, display equipment, and control program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113891159A (en) * | 2020-07-01 | 2022-01-04 | 丰田自动车株式会社 | Information processing apparatus, information processing method, and control system |
JP2022012522A (en) * | 2020-07-01 | 2022-01-17 | トヨタ自動車株式会社 | Information processing apparatus, information processing method, and control system |
JP7322824B2 (en) | 2020-07-01 | 2023-08-08 | トヨタ自動車株式会社 | Information processing device, information processing method, and control system |
US11971718B2 (en) * | 2021-11-15 | 2024-04-30 | Toyota Jidosha Kabushiki Kaisha | Control system, control method, and program |
WO2023148800A1 (en) * | 2022-02-01 | 2023-08-10 | 日本電気株式会社 | Control device, control system, control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6711799B2 (en) | 2020-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11017217B2 (en) | System and method for controlling appliances using motion gestures | |
US20130077831A1 (en) | Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program | |
KR20220031610A (en) | Multi-modal user interface | |
CN114391163A (en) | Gesture detection system and method | |
CN111163906B (en) | Mobile electronic device and method of operating the same | |
EP3613045B1 (en) | Methods, systems, and media for providing information relating to detected events | |
US11163367B2 (en) | Method of obtaining gesture zone definition data for a control system based on user input | |
KR20140106393A (en) | Communication device, communication device of control method, controled device, communication system and control program recorded by recording media | |
US20200169705A1 (en) | Vehicle system | |
JP6711799B2 (en) | Device control device, device control method, and device control system | |
JP2009087074A (en) | Equipment control system | |
EP3948514B1 (en) | System and method to view occupant status and manage devices of building | |
JP6719434B2 (en) | Device control device, device control method, and device control system | |
JP2014192599A (en) | Control system, control method, and computer program | |
JP6347347B2 (en) | Notification system, notification program, notification method, and notification device | |
WO2016199457A1 (en) | Information processing device, information processing method, and program | |
JP2021033677A (en) | Information processing apparatus and program | |
JPWO2020022371A1 (en) | Robots and their control methods and programs | |
US10838741B2 (en) | Information processing device, information processing method, and program | |
WO2021084949A1 (en) | Information processing device, information processing method, and program | |
US11687049B2 (en) | Information processing apparatus and non-transitory computer readable medium storing program | |
JP6711800B2 (en) | Device control device, device control method, and device control system | |
JP7180601B2 (en) | SLEEP STATE DETECTION DEVICE AND METHOD, AND MONITORED PERSON MONITORING SUPPORT SYSTEM | |
JP6340626B2 (en) | Notification system, notification program, notification method, and notification device | |
WO2022044695A1 (en) | Environmental control system, environmental control device, environmental control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200519 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200528 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6711799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |