JPWO2019106734A1 - コンピュータシステム、機器制御方法及びプログラム - Google Patents
コンピュータシステム、機器制御方法及びプログラム Download PDFInfo
- Publication number
- JPWO2019106734A1 JPWO2019106734A1 JP2019556442A JP2019556442A JPWO2019106734A1 JP WO2019106734 A1 JPWO2019106734 A1 JP WO2019106734A1 JP 2019556442 A JP2019556442 A JP 2019556442A JP 2019556442 A JP2019556442 A JP 2019556442A JP WO2019106734 A1 JPWO2019106734 A1 JP WO2019106734A1
- Authority
- JP
- Japan
- Prior art keywords
- person
- image
- name
- module
- vicinity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 claims description 18
- 238000010586 diagram Methods 0.000 abstract description 11
- 238000004891 communication Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】所望する人物名に一致した人物から最も近い所にある機器だけにアクションさせるように制御することが可能なコンピュータシステム、機器制御方法及びプログラムを提供することを目的とする。【解決手段】コンピュータシステムは、人物の画像を取得し、前記画像を解析して、前記人物を特定し、前記人物の近傍にある機器を検出し、特定した前記人物のうち、所望する人物名を受け付け、前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる。【選択図】図1
Description
本発明は、機器を制御するコンピュータシステム、機器制御方法及びプログラムに関する。
近年、画像から人物を特定する技術が進んでいる。このような技術として、例えば、画像認識で特定された人物と、その人物に係るものとの組み合わせに基づくサービスを提供するコンピュータ装置が提供されている(特許文献1参照)。
しかしながら、特許文献1の構成では、人物を特定するのみであることから、この人物の周囲にある機器を制御するような発想が存在しなかった。
本発明は、所望する人物名に一致した人物から最も近い所にある機器だけにアクションさせるように制御することが可能なコンピュータシステム、機器制御方法及びプログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
本発明は、人物の画像を取得する取得手段と、
前記画像を解析して、前記人物を特定する特定手段と、
前記人物の近傍にある機器を検出する検出手段と、
特定した前記人物のうち、所望する人物名を受け付ける受付手段と、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる制御手段と、
を備えることを特徴とするコンピュータシステムを提供する。
前記画像を解析して、前記人物を特定する特定手段と、
前記人物の近傍にある機器を検出する検出手段と、
特定した前記人物のうち、所望する人物名を受け付ける受付手段と、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる制御手段と、
を備えることを特徴とするコンピュータシステムを提供する。
本発明によれば、コンピュータシステムは、人物の画像を取得し、前記画像を解析して、前記人物を特定し、前記人物の近傍にある機器を検出し、特定した前記人物のうち、所望する人物名を受け付け、前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる。
本発明は、コンピュータシステムのカテゴリであるが、方法及びプログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
本発明によれば、所望する人物名に一致した人物から最も近い所にある機器だけにアクションさせるように制御することが可能なコンピュータシステム、機器制御方法及びプログラムを提供することが可能となる。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
[機器制御システム1の概要]
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である機器制御システム1の概要を説明するための図である。機器制御システム1は、ウェアラブル端末100から構成されるコンピュータシステムである。ウェアラブル端末100は、図示していないスピーカ、スマートフォン、他のウェアラブル端末等の機器と図示していないルータ等のゲートウェイ端末やサーバ機能を有したコンピュータ等を介して、データ通信を行う。
本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態である機器制御システム1の概要を説明するための図である。機器制御システム1は、ウェアラブル端末100から構成されるコンピュータシステムである。ウェアラブル端末100は、図示していないスピーカ、スマートフォン、他のウェアラブル端末等の機器と図示していないルータ等のゲートウェイ端末やサーバ機能を有したコンピュータ等を介して、データ通信を行う。
なお、図1において、ウェアラブル端末100の数は、適宜変更可能である。また、ウェアラブル端末100は、実在する装置に限らず、仮想的な装置であってもよい。また、機器制御システム1は、ウェアラブル端末100に加え、上述した機器やコンピュータにより構成されていてもよい。
ウェアラブル端末100は、機器とデータ通信可能に接続された端末装置である。ウェアラブル端末100は、例えば、ユーザが装着するスマートグラス、ヘッドマウントディスプレイ等の端末装置である。なお、ウェアラブル端末100は、スピーカやヘッドフォン等の音響機器や、携帯電話、携帯情報端末、タブレット端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の電化製品により構成されてもよい。
はじめに、ウェアラブル端末100は、自身が有するステレオカメラ等の撮影装置により、対象とする人物を撮影する(ステップS01)。ウェアラブル端末100は、人物を撮影することにより、この人物の画像を取得する。なお、ウェアラブル端末100は、常時撮影し続ける構成であってもよいし、ユーザからの音声入力やジェスチャー入力等の指示入力に基づいて撮影する構成であってもよい。常時撮影し続ける場合、所定時間経過後(30秒経過、1分経過、5分経過等)に撮影した画像を削除することも可能である。
ウェアラブル端末100は、取得した画像を画像解析し、画像に写っている人物を特定する(ステップS02)。ウェアラブル端末100は、画像を画像解析(特徴点解析や特徴量解析)する。ウェアラブル端末100は、予め対象となりうる人物の特徴点や特徴量と、人物名、所有するスマートフォンやウェアラブル端末等の端末装置の識別子(SSID、電話場号、メールアドレス、コミュニケーションアプリケーションのID)等の属性情報とを対応付けて登録した人物データベースとに基づいて、今回、画像解析により抽出した特徴点や特徴量と人物データベースに登録された人物の特徴点や特徴量とを照合することにより、画像に写っている人物を特定する。
このとき、ウェアラブル端末100は、今回特定した人物に関して、ニューラルネットワーク等のパターン認識による機械学習を行い、次回以降の特定の際に、人物特定の精度を向上させてもよい。
ウェアラブル端末100は、特定した人物の近傍にある機器を検出する(ステップS03)。ウェアラブル端末100は、GPS(Global Positioning System)から自身の位置情報を取得する。ウェアラブル端末100は、この位置情報と、特定した人物との間の距離を特定する。ウェアラブル端末100は、自身の視界方向(ユーザの視界方向であり、自身が向いている方向を意味する)と、この距離とに基づいて、人物の位置情報を特定する。ウェアラブル端末100は、この人物の位置情報に基づいて、この人物の近傍(例えば、半径数m以内)にある機器を検出する。例えば、ウェアラブル端末100は、図示してないルータを介して、機器とデータ通信を行い、機器がGPSから取得した位置情報を取得し、条件を満たす機器を特定することにより人物の近傍にある機器を検出する。
ウェアラブル端末100は、特定した人物のうち、所望する人物名を受け付ける(ステップS04)。ウェアラブル端末100は、例えば、音声入力等により、人物名を受け付ける。
ウェアラブル端末100は、人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる(ステップS05)。ウェアラブル端末100は、この人物の近傍にある機器に所定のアクションを実行させるためのコマンドを生成する。このコマンドは、例えば、ウェアラブル端末100が、機器の機器情報(品番、製造元、仕様等)を取得し、この機器情報に基づいて、この機器に実行させるアクションに応じたコマンドを生成する。ウェアラブル端末100は、生成したコマンドを、機器に送信する。機器は、このコマンドに基づいて、所定のアクションを実行する。所定のアクションとは、例えば、以下のものである。ウェアラブル端末100は、この人物から近い所にあるスピーカを検出した場合、ユーザの声を、このスピーカだけに拡声させる。また、ウェアラブル端末100は、この人物が所有しているスマートフォンを検出した場合、このスマートフォンだけに通話させるように制御する。また、ウェアラブル端末100は、この人物が所有しているスマートフォンを検出した場合、このスマートフォンだけにメールさせるように制御する。
以上が、機器制御システム1の概要である。
[機器制御システム1のシステム構成]
図2に基づいて、本発明の好適な実施形態である機器制御システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である機器制御システム1のシステム構成を示す図である。機器制御システム1は、ウェアラブル端末100から構成されるコンピュータシステムである。
図2に基づいて、本発明の好適な実施形態である機器制御システム1のシステム構成について説明する。図2は、本発明の好適な実施形態である機器制御システム1のシステム構成を示す図である。機器制御システム1は、ウェアラブル端末100から構成されるコンピュータシステムである。
なお、機器制御システム1を構成する装置の数及びその種類は、適宜変更可能である。また、機器制御システム1は、実在する装置に限らず、仮想的な装置類により実現されてもよい。また、機器制御システム1は、ウェアラブル端末100のみによる構成に限らず、図示していない、スピーカ、スマートフォン、他のウェアラブル端末等の機器や、ゲートウェイ端末や、コンピュータ等をさらに有する構成であってもよい。この場合、制御システム1を構成する各装置は、其々データ通信可能に接続される。また、後述する各処理は、ウェアラブル端末100に加え、上述した機器、ゲートウェイ端末又はコンピュータの何れか又は複数の組み合わせにより実現されてもよい。
ウェアラブル端末100は、後述の機能を備えた上述した端末装置である。
[各機能の説明]
図3に基づいて、本発明の好適な実施形態である機器制御システム1の機能について説明する。図3は、ウェアラブル端末100の機能ブロック図を示す図である。
図3に基づいて、本発明の好適な実施形態である機器制御システム1の機能について説明する。図3は、ウェアラブル端末100の機能ブロック図を示す図である。
ウェアラブル端末100は、制御部110として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部120として、図示していない機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi―Fi(Wireless―Fidelity)対応デバイスや近距離通信デバイス等を備える。また、ウェアラブル端末100は、記憶部130として、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。また、ウェアラブル端末100は、処理部140として、画像解析、音声認識、コマンド生成、人物特定、人物撮影、各種計算、処理等を実行する各種デバイス等を備える。
ウェアラブル端末100において、制御部110が所定のプログラムを読み込むことにより、通信部120と協働して、機器検出モジュール150、接続モジュール151を実現する。また、ウェアラブル端末100において、制御部110が所定のプログラムを読み取ることにより、記憶部130と協働して、記憶モジュール160を実現する。また、ウェアラブル端末100において、制御部110が所定のプログラムを読み込むことにより、処理部140と協働して、撮影モジュール170、人物判断モジュール171、人物特定モジュール172、距離特定モジュール173、音声受付モジュール174、制御モジュール175を実現する。
[機器制御処理]
図4及び図5に基づいて、機器制御システム1が実行する機器制御処理について説明する。図4及び図5は、ウェアラブル端末100が実行する機器制御処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
図4及び図5に基づいて、機器制御システム1が実行する機器制御処理について説明する。図4及び図5は、ウェアラブル端末100が実行する機器制御処理のフローチャートを示す図である。上述した各モジュールが実行する処理について、本処理に併せて説明する。
はじめに、撮影モジュール170は、静止画や動画等の画像を撮影する(ステップS10)。ステップS10において、撮影モジュール170は、ステレオカメラにより、立体画像を撮影する。撮影モジュール170は、ユーザからの撮影指示(例えば、撮影を指示する音声による入力やジェスチャーによる入力)に基づいて画像を撮影する。ユーザは、例えば、対象とする人物の人物名、撮影、その他の特定の音声を入力することにより、撮影指示を行う。ウェアラブル端末100は、画像を撮影することにより、人物の画像を取得する。
なお、撮影モジュール170は、ユーザからの撮影指示によらず常時画像を撮影する構成であってもよい。例えば、撮影モジュール170は、常時あるいは所定時間毎に画像を撮影してもよい。この場合、撮影モジュール170が撮影した画像を、記憶モジュール160が一時的に記憶する。記憶モジュール160は、後述する人物名を受け付ける処理が、記憶後から所定時間(例えば、30秒、1分、5分)経過しても実行されなかった場合、この画像を削除する。また、ウェアラブル端末100は、後述する人物名を受け付ける処理が行われたとき、常時撮影している場合には、受け付けた時点における画像に基づいて対象の処理を行い、所定時間毎に画像を撮影している場合には、受け付けた時点に最も近い時点における画像に基づいて対象の処理を行えばよい。
人物判断モジュール171は、画像内に人物が含まれているか否かを判断する(ステップS11)。ステップS11において、人物判断モジュール171は、画像内の特徴点や特徴量を抽出する。人物判断モジュール171は、抽出した特徴点や特徴量に基づいて、画像内に人物が含まれているか否かを判断する。
ステップS11において、人物判断モジュール171は、画像内に人物が含まれていないと判断した場合(ステップS11 NO)、再度ステップS10の処理を実行する。
一方、ステップS11において、人物判断モジュール171は、画像内に人物が含まれていると判断した場合(ステップS11 YES)、人物特定モジュール172は、画像内の人物を特定する(ステップS12)。ステップS12において、人物特定モジュール172は、記憶モジュール160に予め記憶させた対象となりうる人物の特徴点や特徴量と、この人物の属性情報(人物名、所有するスマートフォンやウェアラブル端末等の端末装置の識別子(SSID、電話番号、メールアドレス、コミュニケーションアプリケーションのID等))とを対応付けて登録した人物データベースを参照することにより、画像内に含まれる人物を特定する。すなわち、人物特定モジュール172は、今回抽出した特徴点や特徴量と、人物データベースに登録された特徴点や特徴量とを照合し、照合結果として得られた特徴点や特徴量に対応付けられた属性情報を特定する。人物特定モジュール172は、この属性情報に該当する人物が、画像内の人物であると特定する。以下の説明において、人物特定モジュール172は、画像内に複数の人物が含まれており、各人物を特定したものとして説明する。
なお、人物特定モジュール172は、今回特定した人物に関して、ニューラルネットワーク等のパターン認識による機械学習を行い、次回以降の特定の際に、人物特定の精度を向上させる構成であってもよい。
距離特定モジュール173は、特定した人物と、自身の位置との間の距離を特定する(ステップS13)。ステップS13において、距離特定モジュール173は、撮影モジュール170が撮影する2枚の画像に存在するずれを学習した結果から、距離を特定する。
図6に基づいて、距離特定モジュール173が特定する距離について説明する。図6は、距離特定モジュール173が距離を特定する状態を模式的に示した図である。図6において、撮影モジュール170は、ウェアラブル端末100が有する第一のレンズ200、第二のレンズ210に其々設けられた撮影装置により、人物220を撮影する。撮影モジュール170は、二枚の画像を重ね合わせ、一の立体画像を撮影する。距離特定モジュール173は、予め、立体画像における画像のずれの長さと、実際の距離とを学習させた結果から、自身と人物220との間の距離Dを推定する。
なお、距離特定モジュール173が自身と人物220との間の距離を推定する構成は、上述した例に限らず、他の方法であってもよく、適宜変更可能である。
距離特定モジュール173は、GPSから取得する自身の位置情報と、特定した自身と人物220との間の距離とに基づいて、人物220の位置情報を特定する(ステップS14)。ステップS14において、距離特定モジュール173は、自身の視界方向(ユーザの視界方向であり、自身が向いている方向を意味する)と、この距離とに基づいて、人物220の位置情報を特定する。
図7に基づいて、距離特定モジュール173が特定する人物220の位置情報について説明する。図7は、距離特定モジュール173が、人物220の位置情報を特定する状態を模式的に示した図である。図7において、距離特定モジュール173は、自身であるウェアラブル端末100の視界方向F、自身と人物220との間の距離Dを模式的に示している。距離特定モジュール173は、視界方向Fから、人物220が、自身から見てどの方角にいるのかを特定する。距離特定モジュール173は、この特定した方角と、自身の位置情報と、距離Dとに基づいて、人物220の位置情報を特定する。すなわち、距離特定モジュール173は、自身の位置情報に、該当する方角に向かって、距離Dを加算することにより、人物220の位置情報を特定する。
なお、距離特定モジュール173が、人物220の位置情報を特定する構成は、上述した例に限らず、適宜変更可能である。
機器検出モジュール150は、人物220の近傍にある機器を検出する(ステップS15)。ステップS15において、機器検出モジュール150は、図示していないルータを介して、機器とデータ通信を行う。機器検出モジュール150は、機器がGPSから取得する機器の位置情報を機器から取得する。機器検出モジュール150は、取得した機器の位置情報と、特定した人物220の位置情報とを比較し、所定の条件(例えば、半径数m以内、半径数十cm以内)にある機器を検出した場合、この機器を人物220の近傍にある機器として検出する。このとき、機器検出モジュール150は、自身の近傍にある機器をも検出する。また、機器検出モジュール150は、人物220の近傍に機器がない場合は、機器が検出できなかったことを検出する。
機器検出モジュール150は、検出した機器の機器情報(品番、製造元、仕様、SSID等)をこの機器から取得する(ステップS16)。ステップS16において、機器検出モジュール150は、検出した機器が記憶する機器情報を、後述する所定のアクションを実行させるための処理のために取得する。
なお、機器検出モジュール150は、検出した機器の機器情報を、直接機器から取得するのではなく、外部データベース等から取得してもよい。例えば、機器検出モジュール150は、検出した機器を一意に特定可能な識別子を取得し、この識別子に該当する機器情報が登録された外部データベースにアクセスすることにより、機器情報を取得してもよい。また、機器検出モジュール150は、このタイミングで機器情報を必ずしも取得する必要はなく、後述する機器に所定のアクションを実行させるためのコマンドを生成する間のタイミングで適宜行われてもよい。
音声受付モジュール174は、ユーザからの音声の入力を受け付ける(ステップS17)。ステップS17において、音声受付モジュール174は、ユーザからの音声を集音し、この音声の入力を受け付ける。例えば、音声受付モジュール174は、「山田さん元気ですか?」との音声の入力を受け付ける。
音声受付モジュール174は、人物名の入力を受け付けたか否かを判断する(ステップS18)。ステップS18において、音声受付モジュール174は、受け付けた音声を音声認識することにより、この音声に人物名が含まれているか否かを判断する。音声受付モジュール174は、人物名の入力を受け付けていないと判断した場合(ステップS18
NO)、すなわち、音声に人物名が含まれていないと判断した場合、本処理を最初から繰り返す。
NO)、すなわち、音声に人物名が含まれていないと判断した場合、本処理を最初から繰り返す。
一方、ステップS18において、音声受付モジュール174は、人物名の入力を受け付けたと判断した場合(ステップS18 YES)、すなわち、音声に人物名が含まれていると判断した場合、人物特定モジュール172は、今回入力を受け付けた人物名と、特定した画像内の人物の人物名とが一致するか否かを判断する(ステップS19)。ステップS19において、人物特定モジュール172は、受け付けた人物名と、特定した人物の属性情報に含まれる人物名とを比較することにより、一致するか否かを判断する。
ステップS19において、人物特定モジュール172は、人物名が一致しないと判断した場合(ステップS19 NO)、制御モジュール175は、自身の視野には、該当する人物が存在しないことをユーザに通知するために、ユーザの近傍(例えば、半径数m以内、半径数十cm以内)にある機器(スピーカ、スマートフォン等)に所定のアクションを実行させるコマンドを生成する(ステップS20)。ステップS20において、制御モジュール175は、ユーザの近傍に複数の機器を検出した場合、ユーザから最も近い所に位置する機器の機器情報に基づいて、この機器に所定のアクションを実行させるコマンドを生成する。例えば、制御モジュール175は、ユーザの近傍にスピーカを検出した場合、このスピーカの機器情報に基づいて、該当する人物が存在しないことを通知する音声(例えば、「該当する人物は存在しません。」)や視野内にいる人物を通知する音声(「該当する人物は存在しません。周囲にいる人物は、田中さん、古賀さん、武藤さんです。」)を生成し、この生成した音声を、このスピーカから拡声させるコマンドを生成する。
また、ステップS20において、制御モジュール175は、ウェアラブル端末100を除いたユーザの近傍にスマートフォン以外の機器を検出できなかった場合、このスマートフォンを検出し、このスマートフォンの機器情報に基づいて、このスマートフォンに所定のアクションを実行させるコマンドを生成する。例えば、制御モジュール175は、このスマートフォンに発呼するとともに、通話機能により、該当する人物が存在しないことを通知する音声や視野内にいる人物を通知する音声を生成し、この生成した音声を通話させるコマンドを生成する。また、制御モジュール175は、このスマートフォンのみに該当する人物が存在しないことを通知するメッセージや視野内にいる人物を通知するメッセージを生成し、この生成したメッセージをこのスマートフォンのメールアドレス宛やこのスマートフォンにインストール済みのコミュニケーションアプリケーションのID宛に送信し、この生成したメッセージを表示させるコマンドを生成する。
なお、制御モジュール175は、複数の機器の其々に対して、上述したコマンドを生成してもよい。この場合、複数の機器としては、同種の機器でも構わないが、異なる種類(例えば、スピーカとスマートフォン)の其々に対して、上述したコマンドを生成してもよい。
接続モジュール151は、生成したコマンドを機器に送信する(ステップS21)。ステップS20において、接続モジュール151は、ルータ等を介して、対象とする機器とデータ通信可能に接続し、このコマンドを送信する。
なお、異なる種類の其々に対して、上述したコマンドを生成していた場合、接続モジュール151は、其々の機器に対して、生成したコマンドを送信すればよい。また、このとき、接続モジュール151は、送信先の機器に応じてコマンドを送信するタイミングをずらしてもよい。例えば、接続モジュール151は、先にスマートフォンにコマンドを送信し、所定時間経過後に、スピーカにコマンドを送信するようにしてもよいし、その逆に、先にスピーカにコマンドを送信し、所定時間経過後に、スマートフォンにコマンドを送信するようにしてもよい。また、接続モジュール151は、先に一の機器に向けてコマンドを送信し、所定時間経過しても、ユーザからのアクションが何もなかった場合、再度生成したコマンドをこの一の機器又はユーザの近傍にあるこの一の機器とは異なる他の機器に対して送信してもよい。
機器は、このコマンドを受信し、コマンドに応じた所定のアクションを実行する。すなわち、ユーザから近い所にあるスピーカだけに音声を拡声したり、ユーザが所有しているスマートフォンだけに通話したり、ユーザが所有しているスマートフォンだけにメールやコミュニケーションアプリケーションを介してメッセージを表示する。
ウェアラブル端末100は、コマンドを送信した後、本処理を終了する。
一方、ステップS19において、人物特定モジュール172は、人物名が一致すると判断した場合(ステップS19 YES)、制御モジュール175は、この人物の近傍(例えば、半径数m以内、半径数十cm以内)にある機器(スピーカ、ウェアラブル端末、スマートフォン等)に所定のアクションを実行させるコマンドを生成する(ステップS22)。ステップS22において、制御モジュール175は、人物の近傍に複数の機器を検出した場合、人物から最も近い所にある機器の機器情報に基づいて、この機器に所定のアクションを実行させるコマンドを生成する。また、制御モジュール175が実行させる所定のアクションとは、例えば、ユーザが発声した音声をこの機器から拡声させることや、ユーザが発声した音声を、テキストに変換したうえで、この機器にメールやコミュニケーションアプリケーション内のメッセージとして表示させることや、人物が装着している機器からこの人物のバイタルデータを取得すること等である。
なお、近傍にある機器のうち、所定のアクションを実行する機能がない機器である場合、代替可能なアクションを実行させることも可能である。例えば、近傍にある機器がスピーカであり、スマートフォンが近傍になく、所定のアクションとして、通話に関するコマンドを生成する場合、スピーカにて発信者を特定可能な着信音や呼び出し音等を拡声する。また、機器としてウェアラブル端末が最も近くなる場合が多いが、所定のアクションを実行させる機能そのものがない場合等が考えられることから、予め指定したアクション(例えば、バイタルデータの取得)以外のアクションを実行させるコマンドを生成する際には、送信先の機器から除外しておいてもよい。アクションを予め指定する方法としては、上述した人物名を受け付けた際に、特定のアクションの入力、特定のキーワードの入力が行われてもよいし、それ以外の構成により実現されてもよい。
ステップS22において、制御モジュール175は、人物の近傍にスピーカを検出した場合、このスピーカの機器情報に基づいて、受け付けた音声「山田さん元気ですか?」を、スピーカに拡声させるために必要なコマンドを生成する。また、制御モジュール175は、人物の近傍にスマートフォンを検出した場合、スマートフォンに発呼するとともに、通話機能を有効にさせるために必要なコマンドを生成する。また、制御モジュール175は、人物の近傍にスマートフォンを検出した場合、受け付けた音声をテキスト変換し、このスマートフォンのメールアドレスやコミュニケーションアプリケーションのID宛にテキスト変換した音声をメッセージとして送信し、「山田さん元気ですか?」とのメッセージを表示させるために必要なコマンドを生成する。また、制御モジュール175は、人物の近傍にウェアラブル端末を検出した場合、バイタルデータを取得させ、このバイタルデータをウェアラブル端末100や図示していないコンピュータ等に送信させるために必要なコマンドを生成する。
なお、上述した説明において、制御モジュール175は、所定の入力(例えば、機器の指定、機器の除外)、所定のキーワード(例えば、各種機器名、特定の語句、目的)等に基づいて、近傍にある機器のうち、最も条件に合う機器に対して、所定のアクションを実行させるためのコマンドを生成してもよい。これは、予め機器とその使用目的や使用条件等とを対応付けて記憶させたデータベースを参照することにより、機器を検索すればよい。また、制御モジュール175は、スマートフォン以外の機器を近傍に検出できなかった場合に、スマートフォンに対して所定のアクションを実行させるためのコマンドを生成してもよい。また、制御モジュール175は、複数の機器の其々に対して、上述したコマンドを生成してもよい。この場合、複数の機器としては、同種の機器でも構わないが、異なる種類(例えば、スピーカとスマートフォン)の其々に対して、上述したコマンドを生成してもよい。このとき生成するコマンドとしては、送信先の機器に応じた所定のアクションを実行させるためのコマンド(例えば、スピーカには拡声、スマートフォンには通話やメッセージの表示)である。
接続モジュール151は、生成したコマンドを機器に送信する(ステップS23)。ステップS23において、接続モジュール151は、ルータ等を介して、対象とする機器とデータ通信可能に接続し、このコマンドを送信する。
なお、異なる種類の其々に対して、上述したコマンドを生成していた場合、接続モジュール151は、其々の機器に対して、生成したコマンドを送信すればよい。また、このとき、接続モジュール151は、送信先の機器に応じてコマンドを送信するタイミングをずらしてもよい。例えば、接続モジュール151は、先にスマートフォンにコマンドを送信し、所定時間経過後に、スピーカにコマンドを送信するようにしてもよいし、その逆に先にスピーカにコマンドを送信し、所定時間経過後に、スマートフォンにコマンドを送信するようにしてもよい。また、接続モジュール151は、先に一の機器に向けてコマンドを送信し、所定時間経過しても、人物からのアクションが何もなかった場合、再度生成したコマンドをこの一の機器又はこの人物の近傍にあるこの一の機器とは異なる他の機器に対して送信してもよい。
機器は、このコマンドを受信し、コマンドに応じた所定のアクションを実行する。すなわち、人物から近い所にあるスピーカだけに音声を拡声したり、人物が所有しているスマートフォンだけに通話したり、人物が所有しているスマートフォンだけにメールやコミュニケーションアプリケーションを介してメッセージを表示する。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータからネットワーク経由で提供される(SaaS:ソフトウェア・アズ・ア・サービス)形態で提供される。また、プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
1 機器制御システム、100 ウェアラブル端末
本発明は、人物の画像を取得する第1取得手段と、
前記画像を解析して、前記人物を特定する第1特定手段と、
特定した前記人物と、当該人物の画像を撮影した撮影地点との間の距離を特定する第2特定手段と、
前記撮影地点の位置情報を取得する第2取得手段と、
取得した前記撮影地点の位置情報と、特定した前記距離とに基づいて前記人物の位置情報を特定する第3特定手段と、
特定した前記人物の位置情報に基づいて、当該人物の近傍にある機器を検出する検出手段と、
特定した前記人物のうち、所望する人物名を受け付ける受付手段と、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる制御手段と、
を備えることを特徴とするコンピュータシステムを提供する。
前記画像を解析して、前記人物を特定する第1特定手段と、
特定した前記人物と、当該人物の画像を撮影した撮影地点との間の距離を特定する第2特定手段と、
前記撮影地点の位置情報を取得する第2取得手段と、
取得した前記撮影地点の位置情報と、特定した前記距離とに基づいて前記人物の位置情報を特定する第3特定手段と、
特定した前記人物の位置情報に基づいて、当該人物の近傍にある機器を検出する検出手段と、
特定した前記人物のうち、所望する人物名を受け付ける受付手段と、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる制御手段と、
を備えることを特徴とするコンピュータシステムを提供する。
本発明によれば、コンピュータシステムは、人物の画像を取得し、前記画像を解析して、前記人物を特定し、特定した前記人物と、当該人物の画像を撮影した撮影地点との間の距離を特定し、前記撮影地点の位置情報を取得し、取得した前記撮影地点の位置情報と、特定した前記距離とに基づいて前記人物の位置情報を特定し、特定した前記人物の位置情報に基づいて、当該人物の近傍にある機器を検出し、特定した前記人物のうち、所望する人物名を受け付け、前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる。
Claims (6)
- 人物の画像を取得する取得手段と、
前記画像を解析して、前記人物を特定する特定手段と、
前記人物の近傍にある機器を検出する検出手段と、
特定した前記人物のうち、所望する人物名を受け付ける受付手段と、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させる制御手段と、
を備えることを特徴とするコンピュータシステム。 - 前記検出手段は、前記人物から近い所にあるスピーカを検出し、
前記制御手段は、前記人物名に一致した人物から近い所にあるスピーカだけに拡声させるように制御する、
ことを特徴とする請求項1に記載のコンピュータシステム。 - 前記検出手段は、前記人物が所有しているスマートフォンを検出し、
前記制御手段は、前記人物名に一致した人物が所有しているスマートフォンだけに通話させるように制御する、
ことを特徴とする請求項1に記載のコンピュータシステム。 - 前記検出手段は、前記人物が所有しているスマートフォンを検出し、
前記制御手段は、前記人物名に一致した人物が所有しているスマートフォンだけにメールさせるように制御する、
ことを特徴とする請求項1に記載のコンピュータシステム。 - コンピュータシステムが実行する機器制御方法であって、
人物の画像を取得するステップと、
前記画像を解析して、前記人物を特定するステップと、
前記人物の近傍にある機器を検出するステップと、
特定した前記人物のうち、所望する人物名を受け付けるステップと、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させるステップと、
を備えることを特徴とする機器制御方法。 - コンピュータシステムに、
人物の画像を取得するステップ、
前記画像を解析して、前記人物を特定するステップ、
前記人物の近傍にある機器を検出するステップ、
特定した前記人物のうち、所望する人物名を受け付けるステップ、
前記人物名に一致した人物の近傍に存在する機器に所定のアクションを実行させるステップ、
を実行させるためのコンピュータ読み取り可能なプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/042697 WO2019106734A1 (ja) | 2017-11-29 | 2017-11-29 | コンピュータシステム、機器制御方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2019106734A1 true JPWO2019106734A1 (ja) | 2020-11-19 |
Family
ID=66665464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019556442A Pending JPWO2019106734A1 (ja) | 2017-11-29 | 2017-11-29 | コンピュータシステム、機器制御方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2019106734A1 (ja) |
WO (1) | WO2019106734A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357067A (ja) * | 2000-04-03 | 2001-12-26 | Konica Corp | 画像データ検索方法及びコンピュータ読み取り可能な記憶媒体 |
JP2003296268A (ja) * | 2002-04-02 | 2003-10-17 | Minolta Co Ltd | ネットワークシステム、コントローラ、およびプログラム |
JP2014010502A (ja) * | 2012-06-27 | 2014-01-20 | Shunji Sugaya | メッセージ送信システム、メッセージ送信方法、プログラム |
JP2014164374A (ja) * | 2013-02-22 | 2014-09-08 | Canon Inc | 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム |
JP2016167208A (ja) * | 2015-03-10 | 2016-09-15 | 成広 武田 | 行動サポート装置 |
JP2017143588A (ja) * | 2017-05-25 | 2017-08-17 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラムおよびネットワークシステム |
-
2017
- 2017-11-29 WO PCT/JP2017/042697 patent/WO2019106734A1/ja active Application Filing
- 2017-11-29 JP JP2019556442A patent/JPWO2019106734A1/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001357067A (ja) * | 2000-04-03 | 2001-12-26 | Konica Corp | 画像データ検索方法及びコンピュータ読み取り可能な記憶媒体 |
JP2003296268A (ja) * | 2002-04-02 | 2003-10-17 | Minolta Co Ltd | ネットワークシステム、コントローラ、およびプログラム |
JP2014010502A (ja) * | 2012-06-27 | 2014-01-20 | Shunji Sugaya | メッセージ送信システム、メッセージ送信方法、プログラム |
JP2014164374A (ja) * | 2013-02-22 | 2014-09-08 | Canon Inc | 情報表示システム、情報端末、サーバ装置、情報端末の制御方法、サーバ装置の制御方法、及びプログラム |
JP2016167208A (ja) * | 2015-03-10 | 2016-09-15 | 成広 武田 | 行動サポート装置 |
JP2017143588A (ja) * | 2017-05-25 | 2017-08-17 | 沖電気工業株式会社 | 情報処理装置、情報処理方法、プログラムおよびネットワークシステム |
Also Published As
Publication number | Publication date |
---|---|
WO2019106734A1 (ja) | 2019-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6379104B2 (ja) | 近距離通信(nfc)リンクを介した、2人のモバイル・デバイス・ユーザに共通する情報の共有 | |
US9530067B2 (en) | Method and apparatus for storing and retrieving personal contact information | |
EP3068115B1 (en) | Incoming call identification | |
CN110363150A (zh) | 数据更新方法及装置、电子设备和存储介质 | |
US9792488B2 (en) | Adjacent person specifying apparatus, adjacent person specifying method, adjacent person specifying program, and adjacent person specifying system | |
CN105468767B (zh) | 名片信息获取方法及装置 | |
KR20160127117A (ko) | 개인 존재와 연관된 동작 수행 | |
CN105095873A (zh) | 照片共享方法、装置 | |
US20140006513A1 (en) | Adjacent person specifying apparatus, adjacent person specifying method, adjacent person specifying program, and adjacent person specifying system | |
JP2013088906A (ja) | 画像認識システムを備えた知識情報処理サーバシステム | |
US9854439B2 (en) | Device and method for authenticating a user of a voice user interface and selectively managing incoming communications | |
KR20190031167A (ko) | 전자 장치 및 이의 제어 방법 | |
EP3249570B1 (en) | Method and device for providing prompt indicating loss of terminal | |
US9977510B1 (en) | Gesture-driven introduction system | |
US20210350823A1 (en) | Systems and methods for processing audio and video using a voice print | |
CN105791325A (zh) | 图像发送方法和装置 | |
WO2017154136A1 (ja) | 携帯情報端末及びそれに用いる情報処理方法 | |
CN110135349A (zh) | 识别方法、装置、设备及存储介质 | |
CN109388699A (zh) | 输入方法、装置、设备及存储介质 | |
CN103870735A (zh) | 解锁处理方法及装置 | |
CN112119372B (zh) | 电子设备及其控制方法 | |
CN105095213B (zh) | 信息关联方法及装置 | |
CN106776874A (zh) | 用户建群方法和装置 | |
JP6846753B2 (ja) | コンピュータシステム、Web会議音声補助方法及びプログラム | |
CN110837557A (zh) | 摘要生成方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200420 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211228 |