JP7301417B2 - スマートリングで実現される無線制御システム及びその無線制御方法 - Google Patents

スマートリングで実現される無線制御システム及びその無線制御方法 Download PDF

Info

Publication number
JP7301417B2
JP7301417B2 JP2022003085A JP2022003085A JP7301417B2 JP 7301417 B2 JP7301417 B2 JP 7301417B2 JP 2022003085 A JP2022003085 A JP 2022003085A JP 2022003085 A JP2022003085 A JP 2022003085A JP 7301417 B2 JP7301417 B2 JP 7301417B2
Authority
JP
Japan
Prior art keywords
gesture
mobile terminal
command
signal
smart ring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022003085A
Other languages
English (en)
Other versions
JP2022120789A (ja
Inventor
劉永皓
Original Assignee
洛克火箭股▲フン▼有限公司
洛克火箭股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 洛克火箭股▲フン▼有限公司, 洛克火箭股▲ふん▼有限公司 filed Critical 洛克火箭股▲フン▼有限公司
Publication of JP2022120789A publication Critical patent/JP2022120789A/ja
Application granted granted Critical
Publication of JP7301417B2 publication Critical patent/JP7301417B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0331Finger worn pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mobile Radio Communication Systems (AREA)

Description

本発明は、制御システムに関し、特に、スマートリングで実現される無線制御システム及び無線制御方法に関する。
近年、半導体プロセスやインターネットの発展に伴い、スマートモバイル端末の処理能力や機能は急速に向上しており、従来のパソコンやノートパソコンにほぼ匹敵するようになっている。
現在、市場に提供されている各種のスマートモバイル端末は、スマートフォンやタブレットなど、ユーザがかなり多岐に渡る機能を実行するために利用できるようになった。また、スマートモバイル端末は、パソコンやノートパソコンよりもはるかに小さい体積を有しており、より使いやすい。そのため、現在ユーザは、これらのスマートモバイル端末を持ち歩くことが多く、従来のパソコンやノートパソコンをそのまま捨ててしまうこともある。
パソコンやノートパソコンに対して、スマートモバイル端末は通常、スクリーンにタッチすることによりユーザの操作を受け付け、対応する機能を実行する。スクリーンをタッチして操作するのは便利だが、一部の特殊な場合には、ユーザがスマートモバイル端末を操作することが困難になる可能性がある。
例えば、スマートモバイル端末により、ユーザがファイルを開いてプレゼンテーションを行うことができるが、ユーザが壇上に立ってプレゼンテーションを行う場合、スマートモバイル端末のタッチスクリーンに触れることが困難であり、ページを切り替える動作を行うことができない可能性がある。また、例えば、スマートモバイル端末により、ユーザが緊急のときに救助を求めるメッセージを発送することができるが、ユーザが本当に危険な状況(例えば、交通事故が発生したり、誘拐されたりすること)にある場合には、必然的にスマートモバイル端末のタッチスクリーンに触れることが困難になり、上述した救助を求める機能が無駄となってしまうという問題があった。
これに鑑み、市場では、ユーザがより柔軟にスマートモバイル端末を制御するのを支援する新たな制御システムを提供する必要がある。
本発明の主な目的は、ユーザがジェスチャによってスマートモバイル端末を直接制御することができ、スマートモバイル端末が対応する機能を直接実行することができるスマートリングで実現される無線制御システム及びその無線制御方法を提供することにある。
上記の目的を達成するために、本発明に係る無線制御システムは、モバイル端末にインストールされて実行される認識プログラムと、前記モバイル端末に通信接続されるスマートリングと、を含み、前記スマートリングは、前記スマートリングの3次元空間での移動を検出して対応する移動信号を生成する6軸センサと、それぞれ異なる移動軌跡に対応する複数のジェスチャモデルを記録した記憶ユニットと、前記6軸センサと前記記憶ユニットとに電気的に接続され、前記移動信号を継続的に受信し、前記移動信号が前記複数のジェスチャモデルのうちの1つに適合するか否かを判断し、前記移動信号が前記複数のジェスチャモデルのうちの特定のジェスチャモデルに適合する場合に、前記特定のジェスチャモデルに対応するジェスチャコマンドを取得するMCUと、前記MCUに電気的に接続され、前記ジェスチャコマンドを前記モバイル端末に無線伝送する伝送ユニットと、を備え、前記モバイル端末は、前記認識プログラムによって前記ジェスチャコマンドを解析して対応する操作コマンドを取得し、前記操作コマンドに基づいて前記モバイル端末を制御して対応する機能を実行するように構成される。
上記の目的を達成するために、本発明に係る無線制御方法は、主に上述した無線制御システムに適用され、前記6軸センサにより前記スマートリングの3次元空間での移動を検出して対応する移動信号を生成するステップaと、前記MCUにより前記移動信号を継続的に受信し、前記移動信号が前記記憶ユニットに記憶された、それぞれ異なる移動軌跡に対応する複数のジェスチャモデルのうちの1つに適合するか否かを判断するステップbと、前記移動信号が前記複数のジェスチャモデルのうちの特定のジェスチャモデルに適合すると判断する場合に、前記特定のジェスチャモデルに対応するジェスチャコマンドを取得するステップcと、前記伝送ユニットにより前記ジェスチャコマンドを前記モバイル端末に無線伝送するステップdと、前記認識プログラムにより前記ジェスチャコマンドを解析して対応する操作コマンドを取得するステップeと、前記操作コマンドに基づいて、対応する機能を実行するように前記モバイル端末を制御するステップfと、を含む。
本発明は、スマートリングによりユーザの手の動きを追跡してユーザのジェスチャを解析し、対応するジェスチャコマンドをモバイル端末に送信し、モバイル端末は認識プログラムによりジェスチャコマンドを解析し、モバイル端末が対応する機能を直接実行するように制御する。本発明は、関連技術と比較して、ユーザがモバイル端末に触れることができなくてもモバイル端末を制御することができ、モバイル端末の利便性を向上させるだけでなく、モバイル端末の機能をどのような場合でも実行できることを保証することができる。
本発明に係るスマートリングの動作を示す概略図である。 本発明の第1実施形態に係るスマートリングのブロック図である。 本発明の第1実施形態に係る制御方法のフローチャートである。 本発明の第1実施形態に係るジェスチャモデルを示す概略図である。 本発明の第2実施形態に係るジェスチャモデルを示す概略図である。 本発明の第3実施形態に係るジェスチャモデルを示す概略図である。 本発明の第1実施形態に係る信号デバッグのフローチャートである。 本発明に係る第1のジェスチャを示す概略図である。 本発明に係る第2のジェスチャを示す概略図である。 本発明に係る第3のジェスチャを示す概略図である。 本発明の第2実施形態に係る制御方法のフローチャートである。
本発明の好ましい実施形態について、図面を参照しながら以下に説明する。
本発明に係るスマートリングで実現される無線制御システムは、様々なスマートモバイル端末(例えば、スマートフォン、タブレットなど)に適用され、ユーザがモバイル端末に触れるのに不便である場合に、ジェスチャの変換によってモバイル端末を無線制御することができる。
図1は、本発明に係るスマートリングの動作を示す概略図である。本発明に係る無線制御システムは、スマートリング1と、スマートリング1と対になる認識プログラム(図2に示す認識プログラム241)を含む。認識プログラム241は、スマートモバイル端末2(以下では、モバイル端末2と略称する)にインストールされて実行される。
具体的には、上記認識プログラム241は、主にスマートリング1の開発メーカーによって提供され、ユーザが自らダウンロードして自身が持つモバイル端末2にインストールするものである。モバイル端末2が認識プログラム241を実行すると、認識プログラム241によってスマートリング1が認識され、スマートリング1との接続が確立される。
一実施形態において、スマートリング1は、ユーザ3の指31に配置され、モバイル端末2と通信接続される。スマートリング1は、ユーザ3の腕、手首、手のひら、指31の移動軌跡を継続的に検出し、移動軌跡からユーザ3が特定のジェスチャを行ったか否かを判断するために用いられる。
本発明において、スマートリング1は、ユーザ3が予め設定された多種のジェスチャのうちの1つを行ったときに、対応するジェスチャコマンドC1をモバイル端末2に発送する。モバイル端末2は、ジェスチャコマンドC1を受信すると、認識プログラム241によりジェスチャコマンドC1を解析し、対応する1つの操作コマンドを取得する。そして、認識プログラム241は、操作コマンドにより対応する機能を実行するようにモバイル端末2を制御する。スマートリング1及び認識プログラム241により、本発明に係る無線制御システムによれば、ユーザ3が実際にモバイル端末2に触れることなくても、モバイル端末2を直接制御するという具体的な目的を達成することができる。
図2は、本発明の第1実施形態に係るスマートリングのブロック図である。図2に示すように、スマートリング1は、主にMCU(Micro Control Unit)11と、6軸センサ12と、第1伝送ユニット13と、第1記憶ユニット14とを備える。6軸センサ12、第1伝送ユニット13及び第1記憶ユニット14は、それぞれMCU11に電気的に接続され、MCU11による制御を受ける。
モバイル端末2は、主にプロセッサ(Processor)21と、ディスプレイ22と、第2伝送ユニット23と、第2記憶ユニット24とを含む。ディスプレイ22、第2伝送ユニット23及び第2記憶ユニット24のそれぞれは、プロセッサ21と電気的に接続され、プロセッサ21による制御を受ける。図2に示すように、上記認識プログラム241は、第2記憶ユニット24にインストールされて格納される。モバイル端末2は、認識プログラム241を実行すると、第2伝送ユニット23によってスマートリング1と通信接続を確立し、スマートリング1が第1伝送ユニット13によって発送するジェスチャコマンドを受信して処理する(詳細は後述)。
図1に示すように、スマートリング1は、主にユーザ3がいずれかの指31にはめるものである。本発明の1つの技術的特徴は、ユーザ3がスマートリング1をはめて移動するときに、スマートリング1は、6軸センサ12によってスマートリング1の3次元空間での移動を継続的に検出し、対応する移動信号を生成することにある。具体的には、6軸センサ12は、予め定義されたX軸、Y軸及びZ軸(図示せず)上でのユーザ3の手に伴うスマートリング1の動きを継続的に検出して、対応する前、後、左、右、上、下の6つの方向上の信号を生成する。一実施形態において、上記移動信号は、上記6つの方向上の信号より構成される一連の連続データを指す。
本発明の別の技術的特徴は、スマートリング1のメーカーは、ユーザ3が特定のジェスチャを行う時の移動軌跡をプリテストして記録し、これらの移動軌跡に基づいて複数のジェスチャモデル141を確立し、これらのジェスチャモデル141をスマートリング1の第1記憶ユニット14に記録することにある。
ユーザ3が実際にスマートリング1をはめて、スマートリング1がはめられた手を移動する場合に、スマートリング1は、6軸センサ12によって継続的に検出し、対応する移動信号を生成する。そして、MCU11は、6軸センサ12から上記移動信号を継続的に受信し、受信した移動信号が第1記憶ユニット14に記憶された複数のジェスチャモデル141のうちの1つに適合するか否かを判断する。MCU11は、移動信号がいずれかのジェスチャモデル141に適合すると判断した場合、ユーザ3が現在行っているジェスチャは、メーカーによって予め定義されたジェスチャに適合するということを意味する。このとき、MCU11は、このジェスチャモデル141に対応するジェスチャコマンドを取得する。
一実施形態において、上記ジェスチャは、ユーザ3がスマートリング1をはめた手で行うジェスチャを指す。例えば、指31を3次元空間内のA点からB点に水平移動させたり、指31を3次元空間内のA点からB点に垂直に移動させたり、指31を3次元空間内で円を描かせたり、指31を押す動作を行わせたり、手のひらでこぶし握り動作をさせたり、腕で特定の角度を振らせたりするなどである。ただし、上記説明は本発明の一部の具体的な実施形態にすぎず、上記の動作に限定されない。
本発明において、各ジェスチャモデル141は、それぞれ1つのジェスチャコマンドに対応する。MCU11は、現在の移動信号がいずれかのジェスチャモデル141に適合すると判断し、ジェスチャモデル141に対応するジェスチャコマンドを生成した後、スマートリング1は、第1伝送ユニット13により、ジェスチャコマンドをモバイル端末2に無線伝送する。一実施形態において、第1伝送ユニット13は、多様な無線伝送ユニットであってもよく、例えば、Wi-Fi(登録商標)伝送ユニット、近距離無線通信(Near Field Communication、NFC)伝送ユニット、無線周波数(Radio Frequency、RF)伝送ユニット、Zigbee(登録商標)伝送ユニット、BLE(Bluetooth(登録商標) Low Energy)伝送ユニットなどであるが、これらに限定されない。
モバイル端末2は、認識プログラム241を実行した場合に、第2伝送ユニット23によりスマートリング1が発送するジェスチャコマンドを受信できる。このとき、モバイル端末2は、認識プログラム241によりジェスチャコマンドを解析し、そして、このジェスチャコマンドに対応する操作コマンドを取得することができる。本実施形態において、第2伝送ユニット23及び第1伝送ユニット13は、同じ形式の無線伝送ユニットである。
一実施形態において、上記操作コマンドは、例えば、モバイル端末2のネイティブコマンドであってもよく、ユーザ3が指31でモバイル端末2のディスプレイ22上でのタッチ操作の使用シーンをシミュレートするために用いられる。例えば、上記操作コマンドは、左にスワイプすること、右にスワイプすること、ディスプレイ22の外側からディスプレイ内にスワイプすること、ディスプレイ22の上端から下にスワイプすること、ディスプレイ22を押すことなどであってもよいが、これらに限定されない。
一実施形態において、上記操作コマンドは、モバイル端末2に対して認識プログラム241によって発送される制御コマンドであってもよい。例えば、特定のデータをスマートリング1に返送すること、モバイル端末2内の特定のアプリケーション242を起動すること、モバイル端末2の特定の機能(例えば、音量調整、明るさ調整、音声入力など)をオンにすることなどであってもよい。ただし、上記説明は本発明の一部の具体的な実施形態にすぎず、上記の動作に限定されない。
上記認識プログラム241は、複数のジェスチャコマンドと複数の操作コマンドとの対応関係が記録された対応テーブル(図示せず)が予め記録されていてもよい。ここで、複数の操作コマンドは、モバイル端末2のブランド、型番、オペレーティングシステムなどの要素によって異なるが、これらに限定されない。本発明において、認識プログラム241は、第2伝送ユニット23によって受信したジェスチャコマンドに基づいて上記対応テーブルを参照することで、このジェスチャコマンドに対応する操作コマンドを取得する。また、認識プログラム241は、モバイル端末2のプロセッサ21に上記操作コマンドを実行させ、モバイル端末2に操作コマンドに基づいて対応する機能を実行させる。
図2に示すように、無線制御システムのスマートリング1は、MCU11に電気的に接続される生理学的検出ユニット15をさらに含んでもよい。生理学的検出ユニット15は、例えば赤外線センサや温度センサなどであってもよく、これらに限定されない。スマートリング1がユーザ3の指31にはめられると、生理学的検出ユニット15によりユーザ3の生理学的データ、例えば心拍、体温などを検出することができる。本実施形態において、スマートリング1はまた第1伝送ユニット13により上記生理学的データをモバイル端末2に伝送してもよい。これにより、モバイル端末2は、認識プログラム241によって特定の表示ページ(図示せず)を開いて、ユーザ3の生理学的データをディスプレイ22上に表示することができる。
図2に示すように、無線制御システムのスマートリング1は、MCU11に電気的に接続されてスマートリング1の動作に必要な電力を供給するバッテリ16をさらに含んでもよい。
図2に示すように、本発明に係る認識プログラム241に加えて、モバイル端末2には複数のアプリケーション242がインストールされることができる。また、上記アプリケーション242は、インストールされた後にそれぞれ第2記憶ユニット24に格納される。
第1実施形態において、上記アプリケーション242は、通信プログラムを含む。ユーザ3は、特定のジェスチャを行ってスマートリング1に特定のジェスチャコマンドを発送させることができる。さらに、認識プログラム241は、特定のジェスチャコマンドに基づいて対応する操作コマンドを取得することで、通信プログラムを起動して、電話に出る、電話帳を開く、連絡先を選択する、電話をかける、電話を切るなどの動作を実行するようにモバイル端末2を制御することができる。
第2実施形態において、上記アプリケーション242は、ナビゲーションプログラムを含む。ユーザ3は、特定のジェスチャを行ってスマートリング1に特定のジェスチャコマンドを発送させることができる。認識プログラム241は、特定のジェスチャコマンドに基づいて対応する操作コマンドを取得することで、ナビゲーションプログラムを起動して、音声入力を開始する、ナビゲーションの目的地を確認するなどの動作を実行するようにモバイル端末2を制御することができる。
第3実施形態において、上記アプリケーション242は、プレゼンテーションプログラムを含む。ユーザ3は、特定のジェスチャを行ってスマートリング1に特定のジェスチャコマンドを発送させることができる。認識プログラム241は、特定のジェスチャコマンドに基づいて対応する操作コマンドを取得することで、プレゼンテーションプログラムを起動して、特定のファイルを開く、カーソルを制御するなどの動作を実行するようにモバイル端末2を制御することができる。
第4実施形態において、上記アプリケーション242は、IoT(Internet of Thing)デバイス制御プログラム(例えば、Android(登録商標)オペレーティングシステムの「Google Home」アプリケーション、又はiOSオペレーティングシステムの「テーブル」アプリケーションなど)を含む。ユーザ3は、特定のジェスチャを行ってスマートリング1に特定のジェスチャコマンドを発送させることができる。認識プログラム241は、特定のジェスチャコマンドに基づいて対応する操作コマンドを取得することで、IoTデバイスプログラムを起動して、特定のIoTデバイスを接続する、IoTデバイスを制御するなどの動作を実行することができるようにモバイル端末2を制御することができる。
第5実施形態において、上記アプリケーション242は、緊急連絡プログラムを含む。ユーザ3は、特定のジェスチャを行ってスマートリング1に特定のジェスチャコマンドを発送させることができる。認識プログラム241は、特定のジェスチャコマンドに基づいて対応する操作コマンドを取得することで、緊急連絡プログラムを起動して、緊急連絡プログラムにより救助信号を発送するようにモバイル端末2を制御することができる。
具体的には、図2に示すように、モバイル端末2は、プロセッサ21に電気的に接続され通信ユニット25をさらに含む。モバイル端末2は、通信ユニット25を介して他の通信装置と通話したり、ショートメッセージ(SMS)を他の通信装置に送信したりすることができる。本発明の1つの技術的特徴は、認識プログラム241は、スマートリング1が伝送したジェスチャコマンドが特定のジェスチャコマンド(例えば、こぶし握りコマンド又は手振りコマンド、詳細は後述)であると判断した場合、ユーザ3が、例えば、転倒する、トラブル発生する、いじめ又は誘拐などの緊急状況に遭遇したと認定する。この場合、認識プログラム241は、モバイル端末2を制御して、上記通信ユニット25により電話をかけたり、SMSを送信したりすることにより、ユーザ3のために自動的に救助信号を送信する。
一実施形態において、モバイル端末2は、第2記憶ユニット24により連絡帳243を記録する。本実施形態において、認識プログラム241は、ユーザ3が緊急事態に遭遇したと認定すると、連絡帳243から緊急連絡先(例えば、家族、警察署、病院など)の連絡情報(即ち、電話番号)を取得し、通信ユニット25を介して緊急連絡先に電話をかけたり、SMSを送信したりするようにモバイル端末2を制御する。
別の実施形態において、モバイル端末2は、モバイル端末2のロケーションを測位して、対応する測位情報を生成するために、プロセッサ21に電気的に接続されたGPS(Global Positioning System)ユニット26をさらに含む。本実施形態において、認識プログラム241は、ユーザ3が緊急事態に遭遇したと認定した場合、上記GPSユニット26によりモバイル端末2の現在の測位情報を取得し、測位情報に基づいて上記操作コマンドを生成する。本実施形態において、モバイル端末2が通信ユニット25によって発送する救助信号には、モバイル端末2の測位情報も含まれる。この測位情報により、緊急連絡先は、救助信号を受信すると、ユーザ3の現在のロケーションを直接知ることができ、速やかに救助に向かうことができる。
図3は、本発明の第1実施形態に係る制御方法のフローチャートである。図3には、本発明に係る無線制御方法が示されている。無線制御方法は、図1及び図2で説明した無線制御システムに適用され、無線制御システムにおける認識プログラム241及びスマートリング1で実現される。
図3に示すように、まず、ユーザ3は、スマートリング1を指31にはめて、指31を移動する(ステップS10)。ユーザ3が指31を移動するときに、スマートリング1は6軸センサ12によってスマートリング1の3次元空間での移動を継続的に検出して、対応する移動信号を生成する(ステップS12)。具体的には、6軸センサ12は、主にユーザ3の手の変位及び回動を検出し、前、後、左、右、上、下の方向に基づいて上記移動信号を生成する。
ステップS12の後、スマートリング1は、MCU11により移動信号を継続的に受信して分析し(ステップS14)。移動信号が第1記憶ユニット14に記憶されるいずれかのジェスチャモデル141に適合するか否かを判断する(ステップS16)。現在の移動信号がいずれかのジェスチャモデル141に適合しない場合、スマートリング1は、外部にいかなるジェスチャコマンドも送信しない。
ステップS16で移動信号が複数のジェスチャモデル141のうちの1つの特定のジェスチャモデルに適合すると判断した場合、MCU11は、更にこの特定のジェスチャモデルに対応する1つのジェスチャコマンドを取得する(ステップS18)。そして、スマートリング1は、第1伝送ユニット13により、認識プログラム241がインストールされているモバイル端末2にジェスチャコマンドを無線伝送する(ステップS20)。
上述したように、第1記憶ユニット14には、複数のジェスチャモデル141が予め記憶されており、各ジェスチャモデル141は、それぞれ異なる移動軌跡に対応する。ステップS16では、主に移動信号により、ユーザ3の手の移動動作が、いずれかのジェスチャモデル141に記録された移動軌跡に適合するか否かを判断する。そして、ユーザ3の移動動作がいずれかのジェスチャモデル141に記録された移動軌跡に適合する場合、ユーザ3が特定のジェスチャを行ったと判断し、このジェスチャモデル141を特定のジェスチャモデルとし、この特定のジェスチャモデルに対応するジェスチャコマンドを取得する。
一実施形態において、上記特定のジェスチャは、例えば、水平に移動する、垂直に移動する、こぶしを握る、手を振る、円を描く、タップするなどであってもよく、上記ジェスチャコマンドは、例えば、水平移動コマンド、垂直移動コマンド、こぶし握りコマンド、手振りコマンド、円描くコマンド、タップコマンドなどであってもよく、これらに限定されない。
ステップS20の後、モバイル端末2は、第2伝送ユニット23により、スマートリング1が送信するジェスチャコマンドを受信し(ステップS22)、モバイル端末2で実行される認識プログラム241により、ジェスチャコマンドに対して分析を行い、このジェスチャコマンドに対応する操作コマンドを取得する(ステップS24)。
一実施形態において、認識プログラム241は、受信したジェスチャコマンドに基づいて、内蔵された対応するテーブルを参照することにより、ジェスチャコマンドに対応する操作コマンドを取得する。例えば、水平移動コマンドは、左又は右にスワイプする操作コマンドに対応してもよく、垂直移動コマンドは、上又は下へスワイプする操作コマンドに対応してもよく、こぶし握りコマンド及び手振りコマンドは、救助信号を発送する操作コマンドに対応してもよく、円描くコマンドは、カーソルを制御する操作コマンドに対応してもよく、タップコマンドは、アプリケーション242をトリガする操作コマンドに対応していてもよい。ただし、上記説明は本発明の一部の具体的な実施形態にすぎず、上記の動作に限定されない。
ステップS24の後、認識プログラム241は、モバイル端末2のプロセッサ21をトリガし、プロセッサ21は、操作コマンドに基づいて、対応する機能を実行するようにモバイル端末2を制御する(ステップS26)。一実施形態において、プロセッサ21は、主に操作コマンドに基づいて、モバイル端末2のネイティブ機能(例えば、左にスワイプする、右にスワイプする)を実行する、アプリケーション242を起動してアプリケーション242の機能を実行する、外部に救助信号を送信するようにモバイル端末2を制御することができるが、これらに限定されない。
一実施形態において、スマートリング1は、起動後、ユーザ3が使用を終了したか否かを継続的に判断し(ステップS28)、ユーザ3が使用を終了するまで、ステップS10~ステップS26を継続的に実行することにより、本発明に係る無線制御方法を継続的に実行することができる。例えば、スマートリング1は、MCU11によってユーザ3がスマートリング1の電源をオフするか否かを判断する、又は6軸センサ12又は生理学的検出ユニット15によってユーザ3がスマートリング1を指31から取り外すか否かを検出する。また、ユーザ3が使用を終了したと判断した場合には、本発明に係る無線制御方法を終了する。
上記ステップS12において、スマートリング1は、主に6軸センサ12によってユーザ3の手の移動軌跡を検出し、対応する移動信号を生成する。ステップS16において、スマートリング1は、MCU11により、移動信号を予め定義された複数のジェスチャモデル141と比較する。
しかし、ユーザ3によって移動姿勢が異なる場合があり、同じユーザ3であっても、スマートリング1を使用するシーンが毎回異なる場合(例えば、座って使用する場合と立って使用する場合)があるため、生成される移動信号にも差が生じる。一方、ユーザ3がスマートリング1をはめている間に、他の要因により指31を動かし、誤接触を引き起こす可能性もある。
上記問題を解決するとともに誤接触を回避するために、スマートリング1は、上記ステップS14においてMCU11により取得した移動信号に対して第1段階のデバッグプログラムを行い、これにより、スマートリング1が異なるユーザ3に適用でき、ユーザ3が異なるシーンで使用することができる。
図4A~図4Cは、それぞれ本発明の第1~3実施形態に係るジェスチャモデルを示す概略図である。
図4A~図4Cを参照すると、図4Aは、第1記憶ユニット14に記憶された1群のジェスチャモデル141を示しており、このジェスチャモデル141は、「3次元空間内のA点から3次元空間内のB点への水平移動」の移動軌跡を記録している。
図4Bは、ユーザ3の手の移動に伴って生成されたスマートリング1の移動軌跡4を示している。ユーザ3の実際の操作に基づいて、スマートリング1の移動軌跡4とジェスチャモデル141の記録内容とには必ず差異がある。例えば、図4Bに示すように、実際、ユーザ3が空中で指31で直線を描くことは難しい。スマートリング1の移動軌跡4がジェスチャモデル141の記録内容に100%適合する必要があるときに対応コマンドをトリガすることを要求すれば、スマートリング1は使用に不利である。
本発明の1つの技術的特徴は、MCU11は、上記移動信号にある程度の信号許容範囲5を与えることができ、1群の移動信号における各点がこの信号許容範囲5内にあれば、MCU11は、この移動信号が有効であると認定することにある。逆に、移動信号におけるジッタがこの信号許容範囲5よりも大きい場合(即ち、一部の点の位置が信号許容範囲5を超えている場合)、MCU11は、ユーザ3が誤って接触した(誤接触)と認定し、この移動信号に基づいていかなるジェスチャコマンドを取得しない。
一実施形態において、MCU11は分析を行うときに、まずスマートリング1が3次元空間のうちの1つの移動開始点(例えば、図4BにおけるA点)を取得し、移動開始点から上下へ一定の距離の範囲(例えば、上へ15センチ及び下へ15センチ)を上記移動信号の信号許容範囲5とする。MCU11は、A点からB点に移動するときのユーザ3の手の上下への動きがこの信号許容範囲5以下であれば(即ち、A点からB点までの間の各点が信号許容範囲5内に収まる)、この移動信号が誤接触ではないと判断する。
移動信号が有効であると判断すると、MCU11は、まず、この移動信号の信号平均値を算出し(例えば、移動信号の最高点及び最低点から平均値を算出し)、この信号平均値を予め記憶された複数のジェスチャモデル141と比較する。
また、図4Cに示すように、スマートリング1がユーザ3の移動につれて3次元空間における1つの移動開始点(例えば、図4CにおけるA点)から1つの移動終了点(例えば、図4CにおけるB点)まで移動するが、移動軌跡4におけるジッタが上記信号許容範囲5を超える場合(即ち、A点からB点までの間に一部の点の位置が信号許容範囲5を超えている場合)、MCU11は、この移動信号を誤接触と認定する。
図5は、本発明の第1実施形態に係る信号デバッグのフローチャートである。図5は、図3のステップS14をさらに説明するために用いられ、MCU11がどのように移動信号を分析するかを詳細に説明する。
図5に示すように、6軸センサ12がスマートリング1の移動軌跡を検出して移動信号を生成した後、MCU11は、6軸センサ12から上記移動信号を継続的に受信する(ステップS140)。次に、MCU11は、移動信号が予め設定された信号許容範囲5を超えているか否かを判断する(ステップS142)。
MCU11は、移動信号が信号許容範囲5を超えている場合、現在の移動信号を破棄する(ステップS144)。逆に、MCU11は、移動信号が信号許容範囲5を超えていない場合、移動信号の信号平均値を算出し、この信号平均値を第1記憶ユニット14中の複数のジェスチャモデル141と比較する(ステップS146)。これにより、この移動信号(即ち、信号平均値)がいずれかのジェスチャモデル141に適合する場合、図3のステップS16の後、MCU11は、このジェスチャモデル141に対応するジェスチャコマンドを取得することができる。
要約すると、本発明に係るスマートリング1は、ユーザ3の腕、手首、手のひら又は指31が移動し、その移動のジッタが予め設定された信号許容範囲5を超えていない場合にのみ、モバイル端末2が対応する機能を実行するようにトリガすることができる。これにより、ユーザ3の誤接触を効果的に防止することができる。
図6は、本発明に係る第1のジェスチャを示す概略図である。図6の実施形態において、ユーザ3は、スマートリング1をはめて、指31を曲げてこぶし握り動作を行う。このとき、スマートリング1の6軸センサ12が検出する移動信号は、こぶし握り軌跡を示す。
具体的には、スマートリング1の複数のジェスチャモデル141には、こぶし握りジェスチャモデルが含まれている。このこぶし握りジェスチャモデルは、予め定義された1群のこぶし握り軌跡を記録している。ユーザ3がこぶし握り動作を行うと、MCU11は、スマートリング1の移動信号がこぶし握り軌跡を示して上記こぶし握りジェスチャモデルに適合していると判断し、このこぶし握りジェスチャモデルに対応するジェスチャコマンドを取得して発送する。
図7は、本発明に係る第2のジェスチャを示す概略図である。図7の実施形態において、ユーザ3は、スマートリング1をはめて、腕を腰の上下約45度の位置に移動させて、腕で手振り動作を行う。このとき、スマートリング1の6軸センサ12が検出した移動信号は、第1手振り軌跡を示す。
具体的に、スマートリング1の複数のジェスチャモデル141には、第1手振りジェスチャモデルが含まれている。この第1手振りジェスチャモデルは、予め定義された1群の第1手振り軌跡を記録している。ユーザ3が腕を腰の上又は腰の下の約45度の角度の位置に移動するとき、MCU11は、スマートリング1の移動信号が第1手振り軌跡を示して上記第1手振りジェスチャモデルに適合すると判断し、第1手振りジェスチャモデルに対応するジェスチャコマンドを取得して発送する。
図8は、本発明に係る第3のジェスチャを示す概略図である。図8の実施形態において、ユーザ3は、スマートリング1をはめて、腕を垂直姿勢から前方又は後方の約45度の角度の位置までに振って、腕で手振り動作を行う。このとき、スマートリング1の6軸センサ12が検出した移動信号は、第2手振り軌跡を示す。
具体的に、スマートリング1の複数のジェスチャモデル141には、第2手振りジェスチャモデルが含まれている。この第2手振りジェスチャモデルは、予め定義された1群の第2手振り軌跡を記録している。ユーザ3が腕を垂直姿勢から前方又は後方の約45度の角度の位置までに振ると、MCU11は、スマートリング1の移動信号が第2手振り軌跡を示して上記第2手振りジェスチャモデルに適合すると判断し、第2手振りジェスチャモデルに対応するジェスチャコマンドを取得して発送する。
本発明の1つの技術的特徴は、ユーザ3がスマートリング1をはめて特定のジェスチャをするときに、スマートリング1をトリガして特定のジェスチャコマンドを発送して、更にモバイル端末2をトリガして特定の連絡先に救助信号を発送することにある。ユーザ3が様々な厳しい環境下でモバイル端末2をうまくトリガして救助信号を発送することを確実にするために、一実施形態において、主に上述したこぶし握り動作及び手振り動作が特定のジェスチャとして用いられる。
具体的には、ユーザ3が危険に遭遇する場合、例えば、転倒、交通事故、脅迫に直面し、さらには両手が縛られたときに、基本的に依然として上記のこぶし握り動作又は手振り動作(腕を腰の上、下に向けて約45度の位置に移動する第1手振り動作、及び腕を垂直姿勢から前、後に向けて約45度の位置に移動する第2手振り動作を含む)を実現できる。したがって、本発明では、上記こぶし握り動作及び手振り動作を、救助信号を発送するようにモバイル端末2をトリガできる特定のジェスチャに設定することは、ユーザ3にとってかなりの使用上の利点がある。
図9は、本発明の第2実施形態に係る制御方法のフローチャートである。図9は、本発明に係る無線制御システムがどのように、ユーザ3の手動作により、外部に対して救助信号を発送するようにモバイル端末2をトリガするかを説明するために用いられる。
図9に示すように、まず、図3の実施形態と類似して、ユーザ3は、スマートリング1をはめた手を移動して(ステップS40)、スマートリング1の6軸センサ12でスマートリング1の3次元空間での移動軌跡を検出して、対応する移動信号を生成する(ステップS42)。次に、スマートリング1は、MCU11により移動信号を継続的に受信して分析することで、移動信号に対して第1段階のデバッグプログラムを実行する(ステップS44)。即ち、MCU11は、ステップS44において、移動信号が所定の信号許容範囲5内に収まるか否かを判断することができ、移動信号が予め設定された信号許容範囲5を超えた場合には、現在の移動信号を破棄する。
上記ステップS44の後、MCU11は、移動信号が第1記憶ユニット14に記憶される1つの特定のジェスチャモデルに適合するか否かを判断し(ステップS46)、移動信号が特定のジェスチャモデルに適合する場合に、特定のジェスチャモデルに対応する1つの救助コマンドを取得する(ステップS48)。
一実施形態では、ユーザ3は、ステップS40においてこぶし握り動作を行い、6軸センサ12がステップS42で検出した移動信号はこぶし握り軌跡を示し、MCU11は、ステップS46においてこの移動信号が複数のジェスチャモデル141のうちのこぶし握りジェスチャモデルに適合することを判断する。本実施形態では、ステップS48において、MCU11は、こぶし握りジェスチャモデルに対応するこぶし握りコマンドを取得し、モバイル端末2内の認識プログラム241は、こぶし握りコマンドを上述した救助コマンドとし、救助信号を発送するようにモバイル端末2をトリガする。
別の実施形態では、MCU11は、ステップS46において、移動信号がこぶし握りジェスチャモデルに適合し、かつスマートリング1のこぶし握り軌跡が所定の閾時間(例えば、5秒、10秒など)継続した場合に、ステップS48において、このこぶし握りジェスチャモデルに対応するこぶし握りコマンドをさらに取得する。即ち、本実施形態において、MCU11は、ユーザ3がスマートリング1をはめた手でこぶし握りを行って所定の閾時間に達したときに、初めてこぶし握りコマンドを取得する。これにより、誤接触をさらに回避することができる。
他の一実施形態では、ユーザ3は、ステップS40において、腕の手振り動作(腕を腰の上、下に向けて約45度の位置に移動する第1手振り動作、及び腕を垂直姿勢から前、後に向けて約45度の位置に移動する第2手振り動作を含む)を行い、6軸センサ12がステップS42で検出した移動信号は手振り軌跡を示し、MCU11は、ステップS46においてこの移動信号が複数のジェスチャモデル141のうちの手振りジェスチャモデルに適合することを判断する。本実施形態において、MCU11は、ステップS48で手振りジェスチャモデルに対応する手振りコマンドを取得し、モバイル端末2内の認識プログラム241は、手振りコマンドを上述した救助コマンドとし、救助信号を発送するようにモバイル端末2をトリガする。
別の実施形態では、MCU11は、ステップS46において、移動信号が手振りジェスチャモデルに適合し、かつスマートリング1の手振り軌跡が所定の閾角度(例えば45度)内に収まった場合に、ステップS48において、この手振りジェスチャモデルに対応する手振りコマンドをさらに取得する。即ち、本実施形態において、MCU11は、ユーザ3がスマートリング1をはめた手で手振り又は移動して、その角度が所定の閾角度に達したときに、初めて手振りコマンドを取得する。これにより、誤接触をさらに回避することができる。
なお、上記こぶし握り軌跡は主にユーザ3の指31で行われ、上記手振り軌跡は主にユーザ3の腕で行われる。誤接触をさらに回避するために、MCU11は、ユーザ3が先に手振り動作を行い、かつ手振り角度が所定の閾角度に達したことを判断した後に、ユーザ3がこぶし握り動作を行ったか否かを判断するように設定してもよい。そして、ユーザ3がこぶし握り動作を行ったと判断し、こぶし握り時間が所定の閾時間に達したと判断した場合に、対応する救助コマンドを取り出す。ただし、上記説明は本発明の一部の具体的な実施形態にすぎず、上記の動作に限定されない。
ステップS48の後に、スマートリング1は、第1伝送ユニット13によって外部に上記救助コマンド(即ち、こぶし握りコマンド又は手振りコマンド)を伝送し(ステップS50)、スマートリング1に通信接続されるモバイル端末2は、第2伝送ユニット23によって上記救助コマンドを受信してもよい(ステップS52)。ステップS52の後に、モバイル端末2は、認識プログラム241によって救助コマンドに対して第2段階のデバッグプログラムを行い、デバッグ後の救助コマンドに基づいてテーブルの参照動作を実行して、上記救助コマンドに対応する操作コマンドを取得(ステップS54)。
上記第2段階のデバッグプログラムは、主に救助コマンドに対してノイズフィルタリングを行い、信号が伝送中に発生するノイズによる誤判断を避ける。そして、上記ステップS54において、認識プログラム241は、受信した救助コマンド(上述したこぶし握りコマンド又は手振りコマンド)に基づいて、特定の連絡先に対して救助信号を発送するようにモバイル端末2を制御する操作コマンドを取得する。換言すれば、操作コマンドには、少なくとも上記特定の連絡先と、上記救助信号とが含まれている。
ステップS54の後に、認識プログラム241は、操作コマンドに基づいてモバイル端末2を制御することで、モバイル端末2は、操作コマンドに示された特定の連絡先(例えば、連絡帳243に記載された緊急連絡先)に対して、操作コマンドに記録された救助信号を発送することができる(ステップS56)。
一実施形態において、救助信号は、テキスト、画像、音声、又はこれらの組み合わせで構成される救助内容を含む。別の実施形態において、上記救助信号は、上記救助内容と、モバイル端末2の現在の測位情報との両方を含み、即ち、操作コマンドには、救助信号と測位情報との両方が含まれている。
なお、上記ステップS56において、プロセッサ21は、主にモバイル端末2を制御して、通信ユニット25を介して緊急連絡先、警察署、又は病院に電話をかけたり、SMSを送信したり、特定のアプリケーション242(例えばLINE、Whatsapp、Facebook(登録商標) Messenger、Skypeなど)を起動してネットワークを介して緊急連絡先、警察署、又は病院に電話をかけたり、メッセージを送信したりすることができるが、これらに限定されない。
本発明の上述した技術的手段により、ユーザがモバイル端末に触れることができない緊急状況に直面しても、スマートリング及びモバイル端末内の認識プログラムにより、モバイル端末が特定の連絡先に救助信号を自動的に発送することができる。これにより、ユーザの危機からの脱出を支援し、ユーザの身の安全を確保することができる。
以上、本発明の好ましい実施形態を説明したが、本発明は上記実施形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で上記各実施形態に多様な変更又は改良を加えることができ、上記変更又は改良を加えた形態も本発明の技術的範囲に含まれている。
1 スマートリング
11 MCU
12 6軸センサ
13 第1伝送ユニット
14 第1記憶ユニット
141 ジェスチャモデル
15 生理学的検出ユニット
16 バッテリ
2 モバイル端末
21 プロセッサ
22 ディスプレイ
23 第2伝送ユニット
24 第2記憶ユニット
241 認識プログラム
242 アプリケーション
243 連絡帳
25 通信ユニット
26 GPSユニット
3 ユーザ
31 指
4 移動軌跡
5 信号許容範囲
C1 ジェスチャコマンド

Claims (13)

  1. スマートリングで実現される無線制御システムであって、
    モバイル端末にインストールされて実行される認識プログラムと、
    前記モバイル端末に通信接続される前記スマートリングと、を含み、
    前記スマートリングは、
    前記スマートリングの3次元空間での移動を検出して対応する移動信号を生成する6軸センサと、
    それぞれ異なる移動軌跡に対応する複数のジェスチャモデルを記録した記憶ユニットと、
    前記6軸センサと前記記憶ユニットとに電気的に接続され、前記移動信号を継続的に受信し、前記移動信号が前記複数のジェスチャモデルのうちの1つに適合するか否かを判断し、前記移動信号が前記複数のジェスチャモデルのうちの特定のジェスチャモデルに適合する場合に、前記特定のジェスチャモデルに対応するジェスチャコマンドを取得するMCUと、
    前記MCUに電気的に接続され、前記ジェスチャコマンドを前記モバイル端末に無線伝送する伝送ユニットと、を備え、
    前記モバイル端末は、前記認識プログラムによって前記ジェスチャコマンドを解析して対応する操作コマンドを取得し、前記操作コマンドに基づいて前記モバイル端末を制御して対応する機能を実行するように構成され、前記操作コマンドは、前記モバイル端末のディスプレイ上で前記スマートリングのユーザが直接行うタッチ操作をシミュレートする、前記モバイル端末のネイティブコマンドを含む
    無線制御システム。
  2. 前記スマートリングは、
    前記MCUに電気的に接続され、前記スマートリングの動作に必要な電力を供給するバッテリと、
    前記MCUに電気的に接続され、前記スマートリングがユーザの指に配置されたときに前記ユーザの生理学的データを検出する生理学的検出ユニットと、をさらに含み、
    前記生理学的データが前記伝送ユニットによって前記モバイル端末に無線伝送される、
    請求項1に記載の無線制御システム。
  3. 前記伝送ユニットは、BLE伝送ユニットである、
    請求項1に記載の無線制御システム。
  4. 前記MCUは、前記移動信号がこぶし握り軌跡を示す場合に、前記移動信号が前記複数のジェスチャモデルのうちのこぶし握りジェスチャモデルに適合すると判断し、前記こぶし握り軌跡が所定の閾時間継続したときに、前記こぶし握りジェスチャモデルに対応するこぶし握りコマンドを取得し、前記認識プログラムは、前記こぶし握りコマンドに基づいて、特定の連絡先に対して救助信号を発送するように前記モバイル端末を制御する前記操作コマンドを生成する、
    請求項1に記載の無線制御システム。
  5. 前記認識プログラムは、前記モバイル端末のGPSユニットによって生成された測位情報を取得し、前記認識プログラムによって生成された前記操作コマンドには、前記測位情報が含まれている、
    請求項4に記載の無線制御システム。
  6. 前記MCUは、前記移動信号が手振り軌跡を示す場合に、前記移動信号が前記複数のジェスチャモデルのうちの手振りジェスチャモデルに適合すると判断し、前記手振り軌跡が所定の閾角度内に収まったときに、前記手振りジェスチャモデルに対応する手振りコマンドを取得し、前記認識プログラムは、前記手振りコマンドに基づいて、特定の連絡先に対して救助信号を発送するように前記モバイル端末を制御する前記操作コマンドを生成する、
    請求項1に記載の無線制御システム。
  7. 前記認識プログラムは、前記モバイル端末のGPSユニットによって生成された測位情報を取得し、前記認識プログラムによって生成された前記操作コマンドには、前記測位情報が含まれている、
    請求項6に記載の無線制御システム。
  8. スマートリングと認識プログラムとを含む無線制御システムに適用される無線制御方法であって、
    前記スマートリングは、MCUと、6軸センサと、伝送ユニットと、記憶ユニットとを含み、前記認識プログラムがモバイル端末にインストールされて実行され、
    前記無線制御方法は、
    前記6軸センサにより前記スマートリングの3次元空間での移動を検出して対応する移動信号を生成するステップaと、
    前記MCUにより前記移動信号を継続的に受信し、前記移動信号が前記記憶ユニットに記憶された、それぞれ異なる移動軌跡に対応する複数のジェスチャモデルのうちの1つに適合するか否かを判断するステップbと、
    前記移動信号が前記複数のジェスチャモデルのうちの特定のジェスチャモデルに適合すると判断する場合に、前記特定のジェスチャモデルに対応するジェスチャコマンドを取得するステップcと、
    前記伝送ユニットにより前記ジェスチャコマンドを前記モバイル端末に無線伝送するステップdと、
    前記認識プログラムにより前記ジェスチャコマンドを解析して対応する操作コマンドを取得するステップeと、
    前記操作コマンドに基づいて、対応する機能を実行するように前記モバイル端末を制御するステップfであって、前記操作コマンドは、前記モバイル端末のディスプレイ上で前記スマートリングのユーザが直接行うタッチ操作をシミュレートする、前記モバイル端末のネイティブコマンドを含む、ステップfと、を含む、
    無線制御方法。
  9. ステップbは、
    前記MCUは、移動信号を継続的に受信するステップb1と、
    前記移動信号が予め設定された信号許容範囲を超えているか否かを判断するステップb2と、
    前記移動信号が前記信号許容範囲を超えた場合、前記移動信号を破棄するステップb3と、
    前記移動信号が前記信号許容範囲を超えていない場合、前記移動信号の信号平均値を算出し、前記信号平均値を前記複数のジェスチャモデルと比較するステップb4と、を含む、
    請求項8に記載の無線制御方法。
  10. 前記ステップbは、前記移動信号が前記複数のジェスチャモデルのうちのこぶし握りジェスチャモデルに適合するこぶし握り軌跡を示すか否かを判断することであり、
    前記ステップcは、前記移動信号が前記こぶし握りジェスチャモデルに適合し、前記こぶし握り軌跡が所定の閾時間継続したときに、前記こぶし握りジェスチャモデルに対応するこぶし握りコマンドを取得することであり、
    前記ステップeは、前記こぶし握りコマンドに基づいて、特定の連絡先に対して救助信号を発送するように前記モバイル端末を制御する前記操作コマンドを生成することである、
    請求項8に記載の無線制御方法。
  11. 前記ステップeは、前記救助信号及び前記モバイル端末の測位情報に基づいて前記操作コマンドを生成することである、
    請求項10に記載の無線制御方法。
  12. 前記ステップbは、前記移動信号が前記複数のジェスチャモデルのうちの手振りジェスチャモデルに適合する手振り軌跡を示すか否かを判断することであり、
    前記ステップcは、前記移動信号が前記手振りジェスチャモデルに適合し、前記手振り軌跡が所定の閾角度内に収まったときに、前記手振りジェスチャモデルに対応する手振りコマンドを取得することであり、
    前記ステップeは、前記手振りコマンドに基づいて、特定の連絡先に対して救助信号を発送するように前記モバイル端末を制御する前記操作コマンドを生成することである、
    請求項8に記載の無線制御方法。
  13. 前記ステップeは、前記救助信号及び前記モバイル端末の測位情報に基づいて前記操作コマンドを生成することである、
    請求項12に記載の無線制御方法。
JP2022003085A 2021-02-05 2022-01-12 スマートリングで実現される無線制御システム及びその無線制御方法 Active JP7301417B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW110104393 2021-02-05
TW110104393A TWI779481B (zh) 2021-02-05 2021-02-05 以智能戒指實現的無線控制系統其無線控制方法

Publications (2)

Publication Number Publication Date
JP2022120789A JP2022120789A (ja) 2022-08-18
JP7301417B2 true JP7301417B2 (ja) 2023-07-03

Family

ID=78820271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022003085A Active JP7301417B2 (ja) 2021-02-05 2022-01-12 スマートリングで実現される無線制御システム及びその無線制御方法

Country Status (3)

Country Link
EP (1) EP4040269A1 (ja)
JP (1) JP7301417B2 (ja)
TW (1) TWI779481B (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170257A (ja) 2014-03-10 2015-09-28 富士通株式会社 入力方法,プログラム及び入力装置
JP2015179493A (ja) 2014-02-27 2015-10-08 株式会社ログバー ジェスチャ入力システム
US20150346834A1 (en) 2014-06-02 2015-12-03 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
JP2017513126A (ja) 2014-04-01 2017-05-25 アップル インコーポレイテッド リング形コンピューティングデバイスのための装置及び方法
JP2017090430A (ja) 2015-11-06 2017-05-25 巨擘科技股▲ふん▼有限公司 腕時計、ウェアラブル装置、緊急救出要請方法及び迅速ダイヤル方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017506376A (ja) * 2013-11-29 2017-03-02 モティヴ・インコーポレーテッドMotiv Inc. ウェアラブルコンピューティングデバイス
CN106293025A (zh) * 2015-05-22 2017-01-04 上海中兴思秸通讯有限公司 终端设备的控制方法及系统
TWI631507B (zh) * 2016-03-04 2018-08-01 德凡特未來股份有限公司 動作判識裝置及其控制方法
US10509469B2 (en) * 2016-04-21 2019-12-17 Finch Technologies Ltd. Devices for controlling computers based on motions and positions of hands
KR20180068000A (ko) * 2016-12-13 2018-06-21 (주)유즈브레인넷 웨어러블 기기 및 그것을 이용한 사용자 제스처 인식에 따른 위급상황 알림 방법
CN109933191B (zh) * 2019-02-13 2022-06-03 苏鹏程 手势识别和控制方法及其系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179493A (ja) 2014-02-27 2015-10-08 株式会社ログバー ジェスチャ入力システム
JP2015170257A (ja) 2014-03-10 2015-09-28 富士通株式会社 入力方法,プログラム及び入力装置
JP2017513126A (ja) 2014-04-01 2017-05-25 アップル インコーポレイテッド リング形コンピューティングデバイスのための装置及び方法
US20150346834A1 (en) 2014-06-02 2015-12-03 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
JP2017090430A (ja) 2015-11-06 2017-05-25 巨擘科技股▲ふん▼有限公司 腕時計、ウェアラブル装置、緊急救出要請方法及び迅速ダイヤル方法

Also Published As

Publication number Publication date
EP4040269A1 (en) 2022-08-10
TWI779481B (zh) 2022-10-01
JP2022120789A (ja) 2022-08-18
TW202206986A (zh) 2022-02-16

Similar Documents

Publication Publication Date Title
US10616400B2 (en) Method for controlling terminal device, terminal device, and wearable device thereof
US9978261B2 (en) Remote controller and information processing method and system
JP6475380B2 (ja) 端末及び端末の制御方法
KR20150090162A (ko) 비-접촉 제스처들을 통한 제스처 인식 모드 및 디바이스 페어링 및 공유를 트리거링하기 위한 방법들, 장치들 및 컴퓨터 판독가능 매체
CN108351957B (zh) 根据用户的手势和身份标识执行至少一个动作的方法和系统
CN102609091A (zh) 一种移动终端以及启动移动终端语音操作的方法
WO2018010021A1 (en) Pointer control in a handheld computer by way of hid commands
CN108628217B (zh) 穿戴设备功耗控制方法、穿戴设备及计算机可读存储介质
CN109308160B (zh) 操作指令触发方法、装置、电子设备及存储介质
CN105979066A (zh) 屏幕点亮方法和装置
EP3196738A1 (en) Method for controlling blank screen gesture processing and terminal
EP2731369A1 (en) Mobile terminal and control method thereof
CN104580697B (zh) 在便携式终端控制电子设备的音量的设备和方法
CN108717325A (zh) 操作手势设置方法、装置及移动终端
CN108769206B (zh) 数据同步方法、终端及存储介质
JP7301417B2 (ja) スマートリングで実現される無線制御システム及びその無線制御方法
KR102336982B1 (ko) 이동 단말기 및 그 제어 방법
US10270963B2 (en) Angle switching method and apparatus for image captured in electronic terminal
KR20160039589A (ko) 손가락 센싱 방식을 이용한 무선 공간 제어 장치
CN115589529A (zh) 拍摄方法、设备、系统及计算机可读存储介质
US11188160B1 (en) Wireless controlling system implemented with smart ring and wireless controlling method thereof
CN109831770B (zh) 移动终端的配对方法、装置、存储介质及移动终端
CN113110763A (zh) 触控检测方法、装置、芯片及电子设备
TW201621651A (zh) 滑鼠模擬系統及方法
CN104793729A (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R150 Certificate of patent or registration of utility model

Ref document number: 7301417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150