JP2019532543A5 - - Google Patents

Download PDF

Info

Publication number
JP2019532543A5
JP2019532543A5 JP2019507757A JP2019507757A JP2019532543A5 JP 2019532543 A5 JP2019532543 A5 JP 2019532543A5 JP 2019507757 A JP2019507757 A JP 2019507757A JP 2019507757 A JP2019507757 A JP 2019507757A JP 2019532543 A5 JP2019532543 A5 JP 2019532543A5
Authority
JP
Japan
Prior art keywords
information
predetermined space
feature points
indicated
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019507757A
Other languages
English (en)
Other versions
JP6968154B2 (ja
JP2019532543A (ja
Filing date
Publication date
Priority claimed from CN201610658833.6A external-priority patent/CN107728482A/zh
Application filed filed Critical
Publication of JP2019532543A publication Critical patent/JP2019532543A/ja
Publication of JP2019532543A5 publication Critical patent/JP2019532543A5/ja
Application granted granted Critical
Publication of JP6968154B2 publication Critical patent/JP6968154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (15)

  1. 制御システムであって、
    予め決められた空間における情報を収集するセンサであって、前記収集された情報は1つまたは複数の人間についての顔特徴点を含み、前記予め決められた空間は複数のデバイスを含む、センサと、
    前記収集された情報に応じてユーザの示す情報を決定し、前記示す情報に応じて前記ユーザにより制御されるターゲットデバイスを前記複数のデバイスから選択するプロセッサであって、複数の人間についての顔特徴点が収集され、かつ第1の人間についての顔特徴点の第1の示す方向が第2の人間についての顔特徴点の第2の示す方向と一致する場合、前記示す情報は、前記第1および第2の示す方向に基づいて決定される、プロセッサ
    を備える、制御システム。
  2. 前記センサは、前記第1および第2の人間についての顔特徴点を含む前記予め決められた空間における画像を収集する画像収集システムを含請求項1に記載の制御システム。
  3. 前記センサは、前記予め決められた空間における音信号を収集する音収集システムを含み、前記収集された情報は、前記音信号を含み、
    前記プロセッサは、前記音信号に応じて前記ユーザの前記示す情報を決定する
    請求項1に記載の制御システム。
  4. 制御処理方法であって、
    予め決められた空間における情報を収集することであって、前記収集された情報は1つまたは複数の人間についての顔特徴点を含み、前記予め決められた空間は複数のデバイスを含むことと、
    前記収集された情報に応じてユーザの示す情報を決定することであって、複数の人間についての顔特徴点が収集され、かつ第1の人間についての顔特徴点の第1の示す方向が第2の人間についての顔特徴点の第2の示す方向と一致する場合、前記示す情報は、前記第1および第2の示す方向に基づいて決定される、ことと、
    前記示す情報に応じて、前記ユーザにより制御されるターゲットデバイスを前記複数のデバイスから選択することと
    を含む、制御処理方法。
  5. 前記収集された情報は画像を含み、前記画像は前記第1および第2の人間についての顔特徴点を含む請求項4に記載の制御処理方法。
  6. 前記第1の人間についての顔特徴点は目を含み、前記第2の人間についての顔特徴点は鼻を含む請求項5に記載の制御処理方法。
  7. 記画像から姿勢の特徴および/または身振りの特徴を取得することと、
    前記姿勢の特徴および/または前記身振りの特徴に対応するコマンドに応じて前記ターゲットデバイスを制御することと
    をさらに含む請求項5に記載の制御処理方法。
  8. 前記収集された情報は音信号を含み、前記音信号に応じてユーザの示す情報を決定することは、
    前記音信号が人間の音声特徴を含むことを決定することと、
    前記人間の音声特徴に応じて前記予め決められた空間における前記音信号の信号源の位置情報および前記音信号の伝搬方向を決定することと、
    前記予め決められた空間における前記音信号の前記信号源の位置情報および前記伝搬方向に応じて前記示す情報を決定して、前記複数のデバイスのうち前記ターゲットデバイスを決定することとを含む請求項4に記載の制御処理方法。
  9. 前記予め決められた空間における前記音信号の前記信号源の位置情報および前記伝搬方向に応じて前記示す情報を決定することは、
    前記予め決められた空間における前記音信号の前記信号源の位置情報を始点として、および前記伝搬方向を線の方向として使用して示す線を決定することと、
    前記示す線を前記示す情報として使用することとを含む請求項8に記載の制御処理方法。
  10. 前記音信号が前記人間の音声特徴を含むかどうかを決定すると前記音信号に言葉の認識を実行して、前記音信号に対応するコマンドを取得することと、
    前記コマンドを実行するよう前記ターゲットデバイスを制御することと
    をさらに含む請求項8に記載の制御処理方法。
  11. 前記ユーザにより制御されるターゲットデバイスを前記複数のデバイスから選択することは、
    前記予め決められた空間に対応する前記複数のデバイスについてのデバイスの座標を決定することと、
    事前に設定された誤差の範囲および各デバイスについての前記デバイスの座標に基づいて各デバイスに対するデバイスの範囲を決定することとを含む請求項に記載の制御処理方法。
  12. 記予め決められた空間における別の情報を収集するステップと、
    前記別の情報を識別して、前記別の情報に対応するコマンドを得るステップと、
    前記コマンドを実行するよう前記デバイスを制御することであって、前記デバイスは、前記示す情報に応じて前記ユーザにより制御されると決定される前記デバイスである、制御することとをさらに含む請求項5に記載の制御処理方法。
  13. 前記ユーザにより制御されるターゲットデバイスを前記複数のデバイスから選択することは
    記示す線によって指し示されるデバイスの範囲に対応するデバイスを前記ターゲットデバイスとして決定することであって、前記示す線が前記デバイスの範囲を通過すると前記示す線は前記デバイスの範囲を指し示す、ことを含む請求項11に記載の制御処理方法。
  14. 記予め決められた空間における別の情報を収集することと、
    前記別の情報を識別して、前記別の情報に対応するコマンドを得ることと、
    前記コマンドを実行するよう前記デバイスを制御することであって、前記デバイスは、前記示す情報に応じて、前記ユーザにより制御されることが決定された前記デバイスである、こととをさらに含む請求項8に記載の制御処理方法。
  15. プログラム命令を組み込んだ非一時的コンピュータ読み取り可能記憶媒体であって、前記プログラム命令は、デバイスのプロセッサにより実行されたとき、前記デバイスにデバイスを制御する方法を実行させ、前記方法は、
    予め決められた空間における情報を収集することであって、前記収集された情報は1つまたは複数の人間についての顔特徴点を含み、前記予め決められた空間は複数のデバイスを含む、ことと、
    前記収集された情報に応じてユーザの示す情報を決定することであって、複数の人間についての顔特徴点が収集され、かつ第1の人間についての顔特徴点の第1の示す方向が第2の人間についての顔特徴点の第2の示す方向と一致する場合、前記示す情報は、前記第1および第2の示す方向に基づいて決定される、ことと、
    前記示す情報に応じて、前記ユーザにより制御されるターゲットデバイスを前記複数のデバイスから選択することと
    を含む、非一時的コンピュータ読み取り可能記憶媒体。
JP2019507757A 2016-08-11 2017-08-10 制御システムならびに制御処理方法および装置 Active JP6968154B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201610658833.6A CN107728482A (zh) 2016-08-11 2016-08-11 控制系统、控制处理方法及装置
CN201610658833.6 2016-08-11
PCT/US2017/046276 WO2018031758A1 (en) 2016-08-11 2017-08-10 Control system and control processing method and apparatus

Publications (3)

Publication Number Publication Date
JP2019532543A JP2019532543A (ja) 2019-11-07
JP2019532543A5 true JP2019532543A5 (ja) 2020-09-24
JP6968154B2 JP6968154B2 (ja) 2021-11-17

Family

ID=61159612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019507757A Active JP6968154B2 (ja) 2016-08-11 2017-08-10 制御システムならびに制御処理方法および装置

Country Status (6)

Country Link
US (1) US20180048482A1 (ja)
EP (1) EP3497467A4 (ja)
JP (1) JP6968154B2 (ja)
CN (1) CN107728482A (ja)
TW (1) TW201805744A (ja)
WO (1) WO2018031758A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108490832A (zh) * 2018-03-27 2018-09-04 百度在线网络技术(北京)有限公司 用于发送信息的方法和装置
CN109143875B (zh) * 2018-06-29 2021-06-15 广州市得腾技术服务有限责任公司 一种手势控制智能家居方法及其系统
CN108800473A (zh) * 2018-07-20 2018-11-13 珠海格力电器股份有限公司 设备的控制方法及装置、存储介质和电子装置
CN109240096A (zh) * 2018-08-15 2019-01-18 珠海格力电器股份有限公司 设备控制方法及装置、存储介质、音量控制方法及装置
CN110196630B (zh) * 2018-08-17 2022-12-30 平安科技(深圳)有限公司 指令处理、模型训练方法、装置、计算机设备及存储介质
CN110857067B (zh) * 2018-08-24 2023-04-07 上海汽车集团股份有限公司 一种人车交互装置和人车交互方法
CN109032039B (zh) * 2018-09-05 2021-05-11 出门问问创新科技有限公司 一种语音控制的方法及装置
CN109492779B (zh) * 2018-10-29 2023-05-02 珠海格力电器股份有限公司 一种家用电器健康管理方法、装置及家用电器
CN109839827B (zh) * 2018-12-26 2021-11-30 哈尔滨拓博科技有限公司 一种基于全空间位置信息的手势识别智能家居控制系统
CN110262277B (zh) * 2019-07-30 2020-11-10 珠海格力电器股份有限公司 智能家居设备的控制方法及装置、智能家居设备
CN110970023A (zh) * 2019-10-17 2020-04-07 珠海格力电器股份有限公司 语音设备的控制装置、语音交互方法、装置及电子设备
CN112908321A (zh) * 2020-12-02 2021-06-04 青岛海尔科技有限公司 设备控制方法、装置、存储介质及电子装置
TWI756963B (zh) * 2020-12-03 2022-03-01 禾聯碩股份有限公司 目標物件之區域定義辨識系統及其方法
CN112838968B (zh) * 2020-12-31 2022-08-05 青岛海尔科技有限公司 一种设备控制方法、装置、系统、存储介质及电子装置
CN112750437A (zh) * 2021-01-04 2021-05-04 欧普照明股份有限公司 控制方法、控制装置及电子设备
CN112968819B (zh) * 2021-01-18 2022-07-22 珠海格力电器股份有限公司 基于tof的家电设备控制方法及装置
CN115086095A (zh) * 2021-03-10 2022-09-20 Oppo广东移动通信有限公司 设备控制方法及相关装置
CN114121002A (zh) * 2021-11-15 2022-03-01 歌尔微电子股份有限公司 电子设备、交互模块及其控制方法和控制装置
CN116434514B (zh) * 2023-06-02 2023-09-01 永林电子股份有限公司 一种红外遥控方法以及红外遥控装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6980485B2 (en) * 2001-10-25 2005-12-27 Polycom, Inc. Automatic camera tracking using beamforming
KR100580648B1 (ko) * 2004-04-10 2006-05-16 삼성전자주식회사 3차원 포인팅 기기 제어 방법 및 장치
WO2006021916A1 (en) * 2004-08-24 2006-03-02 Philips Intellectual Property & Standards Gmbh Method for locating an object associated with a device to be controlled and a method for controlling the device
JP2007088803A (ja) * 2005-09-22 2007-04-05 Hitachi Ltd 情報処理装置
JP2007141223A (ja) * 2005-10-17 2007-06-07 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
CN101484889B (zh) * 2006-05-03 2011-12-28 克劳德系统有限公司 用于管理、路由和控制设备与设备间连接的系统和方法
JP4681072B2 (ja) * 2007-03-30 2011-05-11 パイオニア株式会社 遠隔制御システム及び遠隔制御システムの制御方法
US8363098B2 (en) * 2008-09-16 2013-01-29 Plantronics, Inc. Infrared derived user presence and associated remote control
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
KR101749100B1 (ko) * 2010-12-23 2017-07-03 한국전자통신연구원 디바이스 제어를 위한 제스처/음향 융합 인식 시스템 및 방법
US9557819B2 (en) * 2011-11-23 2017-01-31 Intel Corporation Gesture input with multiple views, displays and physics
CN103164416B (zh) * 2011-12-12 2016-08-03 阿里巴巴集团控股有限公司 一种用户关系的识别方法及设备
JP2013197737A (ja) * 2012-03-16 2013-09-30 Sharp Corp 機器操作装置
WO2014087495A1 (ja) * 2012-12-05 2014-06-12 株式会社日立製作所 音声対話ロボット、音声対話ロボットシステム
JP6030430B2 (ja) * 2012-12-14 2016-11-24 クラリオン株式会社 制御装置、車両及び携帯端末
US9207769B2 (en) * 2012-12-17 2015-12-08 Lenovo (Beijing) Co., Ltd. Processing method and electronic device
KR20140109020A (ko) * 2013-03-05 2014-09-15 한국전자통신연구원 스마트 가전기기의 제어를 위한 디바이스 정보 구축 장치 및 그 방법
JP6316559B2 (ja) * 2013-09-11 2018-04-25 クラリオン株式会社 情報処理装置、ジェスチャー検出方法、およびジェスチャー検出プログラム
CN103558923A (zh) * 2013-10-31 2014-02-05 广州视睿电子科技有限公司 一种电子系统及其数据输入方法
US9477217B2 (en) * 2014-03-06 2016-10-25 Haier Us Appliance Solutions, Inc. Using visual cues to improve appliance audio recognition
CN105527862B (zh) * 2014-09-28 2019-01-15 联想(北京)有限公司 一种信息处理方法及第一电子设备
KR101630153B1 (ko) * 2014-12-10 2016-06-24 현대자동차주식회사 제스처 인식 장치, 그를 가지는 차량 및 차량의 제어 방법
CN105759627A (zh) * 2016-04-27 2016-07-13 福建星网锐捷通讯股份有限公司 一种手势控制系统及其方法
US10089543B2 (en) * 2016-07-29 2018-10-02 Honda Motor Co., Ltd. System and method for detecting distraction and a downward vertical head pose in a vehicle

Similar Documents

Publication Publication Date Title
JP2019532543A5 (ja)
US11020165B2 (en) Touch free operation of ablator workstation by use of depth sensors
JP6306236B2 (ja) 奥行きセンサーの使用による装置のタッチフリー操作
KR102444061B1 (ko) 음성 인식이 가능한 전자 장치 및 방법
KR102170321B1 (ko) 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
JP6072237B2 (ja) ジェスチャー入力のための指先の場所特定
EP2509070B1 (en) Apparatus and method for determining relevance of input speech
JP2019169202A (ja) ユーザに方向付けられた個人情報アシスタント
WO2018057663A1 (en) Gesture based control of autonomous vehicles
JP2015526168A5 (ja)
JP2019532543A (ja) 制御システムならびに制御処理方法および装置
JP2020042015A (ja) 自動運転車両の位置検出方法、自動運転車両の位置検出装置及びコンピュータ読み取り可能記憶媒体
JP2015520884A5 (ja)
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
CN110045829B (zh) 利用用户接口的事件的设备和方法
US20120268359A1 (en) Control of electronic device using nerve analysis
JP2015118541A5 (ja)
JP7513070B2 (ja) 情報処理装置、制御方法、及びプログラム
KR102374448B1 (ko) 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치
CN106547339B (zh) 计算机设备的控制方法和装置
JP5558899B2 (ja) 情報処理装置、その処理方法及びプログラム
KR20120132337A (ko) 음성 인식을 이용하는 사용자 인터페이스 제어 장치 및 방법
KR102319530B1 (ko) 사용자 입력 처리 방법 및 장치
US20160110881A1 (en) Motion tracking device control systems and methods
TW201248456A (en) Identifying contacts and contact attributes in touch sensor data using spatial and temporal features