JP2019053191A - 発声補助システム及び発声補助方法 - Google Patents

発声補助システム及び発声補助方法 Download PDF

Info

Publication number
JP2019053191A
JP2019053191A JP2017177339A JP2017177339A JP2019053191A JP 2019053191 A JP2019053191 A JP 2019053191A JP 2017177339 A JP2017177339 A JP 2017177339A JP 2017177339 A JP2017177339 A JP 2017177339A JP 2019053191 A JP2019053191 A JP 2019053191A
Authority
JP
Japan
Prior art keywords
unit
mask body
airflow
light
air flow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017177339A
Other languages
English (en)
Inventor
達雄 瀬沼
Tatsuo Senuma
達雄 瀬沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017177339A priority Critical patent/JP2019053191A/ja
Publication of JP2019053191A publication Critical patent/JP2019053191A/ja
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】手術等で声帯を抽出した者など、発声自体が困難な者についても、適正な音声認識をする。【解決手段】 着用者の両耳に掛けられる一対の支持体21によって保持されて、着用者5の口唇51の周辺を覆うマスク本体20を用い、マスク本体20の内側に配置されて、マスク本体20で覆われた口唇51の周辺の気流を検出し、検出センサー3による検出結果に基づいて、気流のパターンを解析し、解析したパターンに対応する音声を認識し、認識された音声に対応する音声信号を出力する。【選択図】 図2

Description

本発明は、着用者の両耳に掛けられることによって保持されて着用者の口唇の周辺を覆うマスク本体を用いるシステムに関する。
従来、例えば声帯摘出者や身体障害者等のように、発声ができない者、或いは不明瞭な発声をする者が利用する音声出力補助装置があり、この音声出力補助装置は、発声すべき音声に対応する標準音声パターンを多数記憶しておき、着用者の口から発声する音声パターンと予め記憶される多数の標準音声パターンとを比較照合して、非健常者が発声する音声を認識することが行われている(例えば、特許文献1参照)。
特開平7−13582号公報
しかしながら、従来の音声認識装置は、着用者の口から発声する音声パターンから音声認識を行っており、例えば手術等で声帯を抽出した者など、発声自体が困難な者については全く認識できないという問題がある。
そこで、本発明は、上記のような問題を解決するものであり、例えば手術等で声帯を抽出した者など、発声自体が困難な者についても、適正に音声認識を行い発声補助ができる発声補助システム及び発声補助方法を提供することを目的とする。
上記課題を解決するために、本発明は、着用者の両耳に掛けられる一対の支持体によって保持されて、着用者の口唇の周辺を覆うマスク本体と、マスク本体の内側に配置され、マスク本体を着用した状態において、マスク本体で覆われた口唇の周辺の気流を検出する検出部と、検出部による検出結果に基づいて、気流のパターンを解析する気流解析部と、気流解析部が解析したパターンに対応する音声を認識する認識部と、認識部が認識した音声に対応する音声信号を出力する出力部とを備えることを特徴とする。
本発明は、着用者の両耳に掛けられる一対の支持体によって保持されて、着用者の口唇の周辺を覆うマスク本体を用いる発声補助方法であって、マスク本体の内側に配置され、マスク本体を着用した状態において、マスク本体で覆われた口唇の周辺の気流を、検出部が検出する検出ステップと、検出部による検出結果に基づいて、気流のパターンを気流解析部が解析する気流解析ステップと、気流解析部が解析したパターンに対応する音声を認識部が認識する認識ステップと、認識部が認識した音声に対応する音声信号を出力部が出力する出力ステップとを含むことを特徴とする。
上記発明において、検出部は、マスク本体の内側に多数配置された光センサーを含むことが好ましい。また、上記発明において、検出部は、発光部と、発光部からの光を受光する受光器と、受光器を覆うカバー部と、発光部からの入射光が受光器に到達可能となるように、カバー部に形成された開口部と、開口部において、揺動可能に入射光の経路上に配置された光遮断部とを備えることが好ましい。さらに、上記発明において、マスク本体は、通気性を有する素材で形成したり、マスク内外で通気させる通気口を有することが好ましい。
なお、上述した本発明に係る発声補助システムや発声補助方法は、所定の言語で記述された本発明のプログラムをコンピューター上で実行することにより実現することができる。すなわち、本発明の発声補助プログラムを、携帯端末装置やスマートフォン、ウェアラブル端末、モバイルPCその他の情報処理端末、パーソナルコンピュータ等の汎用コンピューターのICチップ、メモリ装置にインストールし、CPU上で実行することにより、上述した各機能を有する発声補助システムを構築して、本発明に係る発声補助方法を実施することができる。
また、本発明の発声補助プログラムは、例えば、通信回線を通じて配布することが可能であり、また、コンピューターで読み取り可能な記録媒体に記録することにより、スタンドアローンの計算機上で動作するパッケージアプリケーションとして譲渡することができる。この記録媒体として、具体的には、フレキシブルディスクやカセットテープ等の磁気記録媒体、若しくはCD-ROMやDVD-ROM等の光ディスクの他、RAMカードなど、種々の記録媒体に記録することができる。そして、このプログラムを記録したコンピューター読み取り可能な記録媒体によれば、汎用のコンピューターや専用コンピューターを用いて、上述したシステム及び方法を簡便に実施することが可能となるとともに、プログラムの保存、運搬及びインストールを容易に行うことができる。
以上述べたように、これらの発明によれば、着用者の両耳に掛けられるマスクで、着用者の口唇の周辺を覆い、口唇の周辺の気流を検出して音声の認識を行うため、手術等で声帯を抽出した者など、発声自体が困難な者についても、適正な音声認識をすることができ、適切な発声補助が行える。
実施形態に係る発声補助システムの全体構成を示す概念図である。 実施形態に係る気流検出装置の構成を示す説明図である。 実施形態に係る気流検出装置の構成を示す斜視図である。 実施形態に係るセンサーを示す斜視図である。 実施形態に係るセンサーの内部空間を示す斜視図である。 実施形態に係るスマートフォンの機能を示すブロック図である。 実施形態に係るスマートフォンのCPUに構築された補助システムを示すブロック図である。
(発声補助システムの全体構成)
以下に添付図面を参照して、本発明に係る発声補助システムの実施形態を詳細に説明する。図1は、本実施形態に係る発声補助システム1の全体構成を示す概念図である。
図1に示すように、本実施形態に係る発声補助システム1は、着用者5に装着される気流検出装置2と、気流検出装置2による検出結果に応じて音声を出力するスマートフォン4とから概略構成される。また、本実施形態に係る発声補助システム1において、スマートフォン4は、ネットワーク6を通じてサーバー7にアクセスが可能となっており、信号変換等に必要なデータを適宜サーバー7からダウンロード等ができるようになっている。また、サーバー7は、過去の気流パターンや音声認識結果を蓄積し、蓄積されたデータを解析したり、蓄積されたデータに基づいて学習したりすることによって、音声認識の精度を向上させるようにしている。
(各装置の構成)
次いで、各装置の構成について説明する。図2及び図3は、本実施形態に係る気流検出装置の内部構成を示す説明図及び斜視図である。なお、説明中で用いられる「モジュール」とは、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組み合わせなどによって構成され、所定の動作を達成するための機能単位を示す。
(1)気流検出装置2の構成
気流検出装置2は、図2及び図3に示すように、マスク本体20の裏面に多数の検出センサー3が配置されて構成されている。マスク本体20は、着用者5の両耳に掛けられる一対の紐体で構成された支持体21によって保持されて、着用者5の口唇51及び鼻孔52の周辺を覆う部材であり、このマスク本体20は、通気性を有する素材で形成されている。なお、このマスク本体としては、本実施形態では、通気性を有する素材で形成するが、例えば、通気性のない素材であっても、通気を行うための通気口を設ける形式にすることもできる。また、本実施形態では、支持体21として着用者5の両耳に掛けられる紐体としたが、着用者5の顔面から後頭部に掛けて巻き付けられるベルトやハーネスなどの形式とすることもできる。
検出センサー3は、マスク本体20の内側に多数配置され、マスク本体20を着用した状態において、マスク本体20で覆われた口唇51及び鼻孔52の周辺の気流を検出する検出部である。本実施形態において、この検出センサー3は、マスク本体20の内側に多数配置された光センサーであり、具体的には、図4及び図5に示すように、発光ダイオード31と、受光器34と、受光器34を覆うカバー部33とを備えている。
検出センサー3は、マスク本体20の表面に多数設けられており、それぞれ基台35上にカバー部33及び固定部36が固着された構成となっている。基台35は板状の部材であり、その上面にカバー部33と固定部36とが固着され、固定部36は、カバー部33の一端に組み付けられている。
発光ダイオード31は、光を照射する発光部であり、一定の強度及び波長で発光する。なお、検出センサー3は、多数設けられており、それぞれの検出センサー3に取付けられる発光ダイオードは、それぞれ固有の波長や色で発光させることができ、隣接する発光ダイオードの光を誤認識しないようにしてもよい。また、この発光ダイオード31は、固定部36上に固着された環状のリング部材31bに嵌合され、発光部分をカバー部33の開口部33bに臨ませるようにして固定されている。この発光ダイオード31には、電極31aを介して電気が供給され、この電極31aは制御部37に接続され、発光ダイオード31の発光が制御される。
受光器34は、発光ダイオード31からの光を受けて、受けた光の強さや波長、色、受光継続時間などを電気信号に変換して出力する光センサーである。この受光器34としては、例えばCDSセルなど、受光する照度に応じて抵抗値や電圧が変化される素子等で構成することができる。また、この受光器34は、その受光面34aが、開口部33bを介して、発光ダイオード31の発光部に対向配置するように、空間33c内に設置されている。また、受光器34には電極34bが接続され、この電極34bを介して電気が供給されるとともに検出信号が出力される。この電極34bは制御部37に接続されて、受光器34の駆動が制御される。
カバー部33は、受光器34を覆う内部中空の直方体形状をなすカバー部材であり、内部に受光器34を収納する空間33cが形成されている。このカバー部33には、発光ダイオード31からの入射光が受光器34に到達可能となるように形成された開口部33bが形成されており、開口部33bには揺動可能に入射光の経路上に配置された光遮断部材32が取付けられている。
この光遮断部材32は、周囲の気流によって揺らいだり、撓ったりする程度の可撓性及び弾力性を有しており、気流による圧力によって変形したり、揺らいだりするとともに、圧力が解消されることによってその弾力で元の形状に戻ったりして、開口部33bからカバー部33内に入射される発光ダイオード31からの光を変化させる。例えば、強い気流が発生したときには大きく揺らぎ、気流が弱いときには小さく揺らぐなどして、周囲の気流の大きさを受光の変化により検出し、周囲の風圧が解消されたときには、その弾性力により元の形状に戻り入射される光を遮断する。
制御部37は、各発光ダイオード31及び各受光器34と接続され、各発光ダイオード31の発光を制御するとともに、サンプリング周期に従って各受光器34からの検出信号を取得して、スマートフォン4に送出するICチップである。
(2)スマートフォンの構成
スマートフォン4は、図6及び図7に示すように、ネットワーク6に接続可能な通信インターフェース41を備えた情報処理端末装置であり、CPU44等の演算処理装置を備え、このCPU44でアプリケーションソフトを実行することによって種々の機能を提供する。この情報処理端末としては、スマートフォンの他、例えば、パーソナルコンピュータ等の汎用コンピューターや機能を特化させた専用装置、モバイルコンピューター、携帯電話機、ウェアラブル端末装置等が含まれる。本実施形態において、スマートフォン4は、CPU44において各種プログラムを実行することにより、CPU上に仮想的に各種モジュールを構築する。本実施形態では、このCPU44により本発明の発声補助プログラムを実行することによって汎用コンピューターであるスマートフォン4を発声補助システムとして機能させる。
詳述すると、スマートフォン4は、演算処理を行うCPU44と、データを記憶するメモリ45と、通信回線やインターネットを介して外部との通信を行う通信インターフェース41と、出力インターフェース43と、入力インターフェース42とを有している。なお、本実施形態では、これらの各モジュールはCPUバスを介して接続されており、相互にデータの受渡しが可能となっている。
CPU44は、各部を制御する際に必要な種々の演算処理を行う装置であり、各種プログラムを実行することにより、CPU44上に仮想的に各種モジュールを構築する。本実施形態では、このCPU44で発声補助プログラムを実行することによって、この汎用的なスマートフォン4を、発声補助システム用の端末として機能させる。
通信インターフェース41は、無線通信により無線基地局と通信を行うモジュールであり、LTE回線、3G・4G回線や、Wifi(登録商標)、Bluetooth(登録商標)などの無線通信ネットワーク、その他の公知の装置・通信方式を用いることができる。また、この通信インターフェース41は、USBケーブルの有線通信や、BLE(Bluetooth Low Energy)等の低電力の近距離通信が可能となっており、検出センサー3の制御部37との間で有線又は無線により通信し、制御部37が収集した気流データを受信する機能も果たす。
メモリ45は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。
また、CPUバスには、GPSや無線基地局61の識別子・座標などから自機の現在位置を測定する位置情報取得手段や、現在時刻を計時する時計手段などが接続されている。これらの位置情報取得手段及び時計手段による測定結果は、相互に紐付けられてログデータとして、メモリ45に蓄積されるとともに、CPU44上で実行されるOSやアプリケーションの要求に応じて受渡される。
出力インターフェース43は、ディスプレイやスピーカー等の出力デバイスから映像や音声を出力するために映像信号や音声信号を送出するモジュールであり、CPU44で実行されるアプリケーションソフトに関する映像や音声を出力することができる。本実施形態では、発声補助システムによって認識され解析された音声を出力する出力手段としての役割も果たす。
一方、入力インターフェース42は、タッチパネル423や物理的な操作ボタン等の操作デバイスから操作信号を受信するモジュールであり、受信された操作信号はCPU44に伝えられ、OSや各アプリケーションに対する操作を行うことができる。なお、本実施形態では、入力インターフェース42及び出力インターフェース43に接続されたタッチパネル423では、入力デバイスであるタッチパネルが、表示デバイスであるディスプレイに重畳されて構成されており、操作画面の表示データをディスプレイに表示させ、それに応じたタッチ操作やゼスチャー操作がなされることによってユーザー操作信号を取得するGUIが提供される。
そして、CPU44上では、スマートフォン用に提供されたOS(Operating System)が起動・実行されており、このOSによってスマートフォン4の基本的な機能が制御されている。また、このOS上では種々のアプリケーションが実行可能になっており、各種アプリケーションを実行することにより、様々な機能が実行される。
本実施形態では、CPU44上でアプリケーションプログラムを実行することにより、種々の機能モジュールがCPU上に仮想的に構築される。本実施形態では、発声補助処理に係るモジュールとして、気流データ取得部44aと、気流解析部44bと、音声認識部44cと、出力情報生成部44dとを備えている。
気流データ取得部44aは、通信インターフェース41を通じて制御部37で収集された各検出センサー3,3からの気流データを受信して取得するモジュールである。この気流データ取得部44aで取得された気流データは、気流解析部44bに入力される。気流解析部44bは、検出センサー3による検出結果に基づいて、気流パターンを解析するモジュールである。音声認識部は、気流解析部44bが解析した気流パターンに対応する音声を認識するモジュールである。さらに、出力情報生成部44dは、音声認識部44cが認識した音声に対応する音声信号を出力する出力モジュールである。
詳述すると、気流解析部44bは、気流を検出したセンサーの位置や、検出した強度、タイミングなどを所定の周期でサンプリングし、各センサー値の時経的変化を解析することにより、気流パターンを生成する。
音声認識部44cは、気流解析部44bが解析した気流パターンから音の種類、強弱、及び高低を判定する。この気流パターンに含まれるパラメーターのうち音の強弱は、予め所定の基準レベルが設定され、気流パターンに含まれる各センサーの値のうち、風速の各速度成分がいずれの方向にどの程度偏っているかを表すものが含まれる。
また、音声認識部44cは、気流パターンに含まれるパラメーターのうち各センサーが検出した風速の偏りを抽出し、風速の各速度成分の分布状態から発声音を決定し、その発声音に対応する文字コード,例えば「ア」とか「イ」とかのコードを選定し、選定されたコードは時系列的に出力され、出力情報生成部44dに入力される。
メモリ45は、気流パターンとそれに対応する音声符号とが記憶されており、出力情報生成部44dは、音声認識部44cで気流パターンに基づいて音声認識された発声音である文字コード(音声符号)を取り出し、それに対応する標準音声パターンを出力する。メモリ45には、気流パターンと、気流パターンに対応する音声符号とが対応付けられて記憶されている。
(発声補助システムの動作)
以上説明した発声補助システムを動作させることによって、本発明の発声補助方法を実施することができる。
先ず、着用者5は、両耳に掛けられる一対の支持体21によってマスク本体20を保持することにより、着用者5の口唇51及び鼻孔52の周辺を覆うように、装着し、声が十分にでないまでも発声するときと同様の息づかいをする。マスク本体20の内側には検出センサー3が多数配置されており、マスク本体20を着用した状態で、マスク本体20で覆われた口唇51及び鼻孔52の周辺の空間25内おける気流を検出する。
このとき、検出センサー3では、周囲の気流によって、光遮断部材32が変形したり、揺らいだりすることによって、開口部33bからカバー部33内に入射される発光ダイオード31からの光が変化される。この光の変化は、カバー部33内の受光器34によって検出され、検出された信号は制御部37へ送出される。制御部37では、所定のサンプリング周期に従って各受光器34からの検出信号を取得して、気流データとしてスマートフォン4に送出する。
この制御部37から送出された気流データは、通信インターフェース41を通じて気流データ取得部44aで取得され、この気流データ取得部44aで取得された気流データは、気流解析部44bに入力されて解析され、音声認識部44cが、気流解析部44bが解析した気流パターンに対応する音声を認識する。そして、音声認識部44cが認識した音声に対応する音声信号が、出力情報生成部44dにより出力される。
(作用・効果)
以上説明した実施形態によれば、着用者の両耳に掛けられるマスクで、着用者の口唇の周辺を覆い、口唇の周辺の気流を検出して音声の認識を行うため、手術等で声帯を抽出した者など、発声自体が困難な者についても、適正な音声認識をすることができ、適切な発声補助が行える。
なお、上述した実施形態の説明は、本発明の一例である。このため、本発明は上述した実施形態に限定されることなく、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能である。
1…発声補助システム
2…気流検出装置
3,3…検出センサー
4…スマートフォン
5…着用者
6…ネットワーク
7…サーバー
20…マスク本体
21…支持体
25…空間
31…発光ダイオード
31a…電極
31b…リング部材
32…光遮断部材
33…カバー部
33b…開口部
33c…空間
34…受光器
34a…受光面
34b…電極
35…基台
35a…電極
36…固定部
37…制御部
41…通信インターフェース
42…入力インターフェース
43…出力インターフェース
44…CPU
44a…気流データ取得部
44b…気流解析部
44c…音声認識部
44d…出力情報生成部
45…メモリ
51…口唇
52…鼻孔
61…無線基地局
423…タッチパネル

Claims (7)

  1. 着用者の両耳に掛けられる一対の支持体によって保持されて、前記着用者の口唇の周辺を覆うマスク本体と、
    前記マスク本体の内側に配置され、前記マスク本体を着用した状態において、前記マスク本体で覆われた口唇の周辺の気流を検出する検出部と、
    前記検出部による検出結果に基づいて、前記気流のパターンを解析する気流解析部と、
    前記気流解析部が解析した前記パターンに対応する音声を認識する認識部と、
    前記認識部が認識した音声に対応する音声信号を出力する出力部と
    を備えることを特徴とする発声補助システム。
  2. 前記検出部は、前記マスク本体の内側に多数配置された光センサーを含むことを特徴とする請求項1に記載の発声補助システム。
  3. 前記検出部は、
    発光部と、
    前記発光部からの光を受光する受光器と、
    前記受光器を覆うカバー部と、
    前記発光部からの入射光が前記受光器に到達可能となるように、前記カバー部に形成された開口部と、
    前記開口部において、揺動可能に前記入射光の経路上に配置された光遮断部と
    を備えることを特徴とする請求項1又は2に記載の発声補助システム。
  4. 前記マスク本体は、通気性を有する素材で形成されていることを特徴とする請求項1に記載の発声補助システム。
  5. 前記マスク本体は、マスク内外で通気させる通気口を有することを特徴とする請求項1に記載の発声補助システム。
  6. 請求項1乃至4に記載のシステムにおいて、情報処理端末を、
    前記検出部による検出結果に基づいて、前記気流のパターンを解析する気流解析部と、
    前記気流解析部が解析した前記パターンに対応する音声を認識する認識部と、
    前記認識部が認識した音声に対応する音声信号を出力する出力部と
    して機能させることを特徴とする発声補助プログラム。
  7. 着用者の両耳に掛けられる一対の支持体によって保持されて、前記着用者の口唇の周辺を覆うマスク本体を用いる発声補助方法であって、
    前記マスク本体の内側に配置され、前記マスク本体を着用した状態において、前記マスク本体で覆われた口唇の周辺の気流を、検出部が検出する検出ステップと、
    前記検出部による検出結果に基づいて、前記気流のパターンを気流解析部が解析する気流解析ステップと、
    前記気流解析部が解析した前記パターンに対応する音声を認識部が認識する認識ステップと、
    前記認識部が認識した音声に対応する音声信号を出力部が出力する出力ステップと
    を含むことを特徴とする発声補助方法。
JP2017177339A 2017-09-15 2017-09-15 発声補助システム及び発声補助方法 Pending JP2019053191A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017177339A JP2019053191A (ja) 2017-09-15 2017-09-15 発声補助システム及び発声補助方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177339A JP2019053191A (ja) 2017-09-15 2017-09-15 発声補助システム及び発声補助方法

Publications (1)

Publication Number Publication Date
JP2019053191A true JP2019053191A (ja) 2019-04-04

Family

ID=66013760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177339A Pending JP2019053191A (ja) 2017-09-15 2017-09-15 発声補助システム及び発声補助方法

Country Status (1)

Country Link
JP (1) JP2019053191A (ja)

Similar Documents

Publication Publication Date Title
US20220091816A1 (en) Wireless Earpiece with a Passive Virtual Assistant
CN107667538B (zh) 具有扬声器壳体传感器的电子设备
US10353476B2 (en) Efficient gesture processing
TWI576826B (zh) Discourse Recognition System and Unit
US20180060031A1 (en) Voice assistant for wireless earpieces
US20170064432A1 (en) Near Field Gesture Control System and Method
CN110428806B (zh) 基于麦克风信号的语音交互唤醒电子设备、方法和介质
US11294466B2 (en) Measurement of facial muscle EMG potentials for predictive analysis using a smart wearable system and method
CN110223711B (zh) 基于麦克风信号的语音交互唤醒电子设备、方法和介质
CN110097875B (zh) 基于麦克风信号的语音交互唤醒电子设备、方法和介质
WO2020060290A1 (en) System and method for pulmonary condition monitoring and analysis
CN111475206B (zh) 用于唤醒可穿戴设备的方法及装置
WO2020244411A1 (zh) 基于麦克风信号的语音交互唤醒电子设备、方法和介质
CN109709191A (zh) 包括可替换传感器的电子装置
JP2019103145A (ja) 電子装置及び電子装置を動作させる方法
CN109036410A (zh) 语音识别方法、装置、存储介质及终端
KR101746908B1 (ko) 애견 감정 표현 장치
JP2019053191A (ja) 発声補助システム及び発声補助方法
CN115702993A (zh) 跳绳状态的检测方法及电子设备
KR102380629B1 (ko) 츄잉 검출장치
WO2022228212A1 (zh) 手势交互方法、系统和装置
EP3561642A1 (en) Information processing device and method for control thereof
JP6609737B2 (ja) 生体光計測装置、情報処理プログラム、情報処理方法
KR101757426B1 (ko) 음성 녹음 기능을 구비한 헤어웨어, 그리고 이를 이용한 사용자 언어 및 감정 인식 시스템
CN102727211B (zh) 辨识装置与辨识方法