JP2023154894A - 情報変換システム、情報処理装置、情報処理方法及びプログラム - Google Patents
情報変換システム、情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2023154894A JP2023154894A JP2022064525A JP2022064525A JP2023154894A JP 2023154894 A JP2023154894 A JP 2023154894A JP 2022064525 A JP2022064525 A JP 2022064525A JP 2022064525 A JP2022064525 A JP 2022064525A JP 2023154894 A JP2023154894 A JP 2023154894A
- Authority
- JP
- Japan
- Prior art keywords
- information
- sound
- sound information
- conversion
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 251
- 230000010365 information processing Effects 0.000 title claims description 51
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000001514 detection method Methods 0.000 claims abstract description 413
- 238000000034 method Methods 0.000 claims abstract description 99
- 230000003183 myoelectrical effect Effects 0.000 claims description 25
- 230000001133 acceleration Effects 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 12
- 210000000988 bone and bone Anatomy 0.000 claims description 9
- 238000011156 evaluation Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000002604 ultrasonography Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 15
- 238000012546 transfer Methods 0.000 description 9
- 206010011224 Cough Diseases 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 8
- 238000005070 sampling Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000009747 swallowing Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 210000003296 saliva Anatomy 0.000 description 4
- 230000001055 chewing effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000003550 marker Substances 0.000 description 2
- 206010039424 Salivary hypersecretion Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 208000026451 salivation Diseases 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/25—Bioelectric electrodes therefor
- A61B5/251—Means for maintaining electrode contact with the body
- A61B5/256—Wearable electrodes, e.g. having straps or bands
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B7/00—Instruments for auscultation
- A61B7/02—Stethoscopes
- A61B7/04—Electric stethoscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Acoustics & Sound (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Dentistry (AREA)
- Physiology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Input From Keyboards Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 生体情報を文字情報若しくは音声情報に変換し、音情報を文字情報に変換することが可能であり、精度が高く変換された文字情報若しくは音声情報を出力することができる情報変換システムを提供する。【解決手段】 ユーザの1つ以上の箇所から生体情報を検出する生体情報検出部102と、音情報を検出する音情報検出部103と、音情報の特性が所定の条件を満たしているか否かを判定する判定部110と、音情報検出部103で検出した音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、生体情報検出部102で検出した生体情報から変換された文字情報若しくは音声情報を出力し、音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、音情報検出部103で検出した音情報から変換された文字情報を出力する変換部106とを備える。【選択図】 図1
Description
本発明は、生体情報から文字情報に変換する情報変換システム、情報処理装置、情報処理方法及びプログラムに関する。
近年、ユーザの音声情報を利用して、発話内容を認識することが行われている。ユーザの口の動きを示す生体情報及び音声情報を取得し、音声情報に基づく発話内容の認識結果を出力することが行われている。(例えば、特許文献1)
しかしながら、特許文献1では、ユーザの音声情報を含む発話情報に基づく発話内容の認識結果を出力しているに過ぎず、生体情報と、音声情報から文字情報を変換する構成であり生体情報のみから文字情報を変換する構成ではない。
本発明は、生体情報を文字情報若しくは音声情報に変換し、音情報を文字情報に変換することが可能であり、高精度に変換された文字情報若しくは音声情報を出力することを目的とする。
ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。
本発明の目的を達成するために、本発明の情報変換システムは、ユーザの1つ以上の箇所から生体情報を検出する生体情報検出部と、音情報を検出する音情報検出部と、前記音情報の特性が所定の条件を満たしているか否かを判定する判定部と、前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した生体情報から変換された文字情報若しくは音声情報を出力し、前記音情報検出部で検出した前記音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、前記音情報から変換された文字情報を出力する変換部とを備える。
また、本発明の情報処理装置は、生体情報検出部で検出された生体情報と音情報検出部で検出された音情報を受信する受信部と、前記音情報の特性が所定の条件を満たしているか否かを判定する判定部と、前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した生体情報から変換された文字情報若しくは音声情報を出力し、前記音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、前記音情報検出部で検出した前記音情報から変換された文字情報を出力する変換部とを備える。
また、本発明の情報処理方法は、生体情報検出部で検出された生体情報と音情報検出部で検出された音情報を受信するステップと、前記音情報の特性が所定の条件を満たしているか否かを判定するステップと、前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した前記生体情報から変換された文字情報若しくは音声情報を出力し、前記音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、前記音情報検出部で検出した前記音情報から変換された文字情報を出力するステップとを含む。
本発明によれば、生体情報を文字情報若しくは音声情報に変換し、音情報を文字情報に変換することが可能であり、高精度に変換された文字情報若しくは音声情報を出力することができる。
以下、本発明の実施の形態を詳細に説明する。本発明の情報変換システムの概略を図1に示す。
情報変換システムは、主に、検出デバイス100と情報処理装置101によって構成されている。検出デバイス100は、ユーザの1つ以上の箇所から生体情報を検出する生体情報検出部102と、音情報を検出する音情報検出部103と、生体情報検出部102で検出された生体情報と音情報検出部103で検出された音情報を情報処理装置101に送信する送信部104とを有している。
図1では、検出デバイス100が1つのデバイスである形態を示しているが、複数のデバイスでもよく、生体情報検出部102と音情報検出部103をそれぞれの検出デバイスで構成してもよい。なお、検出デバイス100は、生体情報及び音情報などの情報を取得する取得部と言い換えることもできる。
生体情報検出部102は、ユーザの筋肉の動き、皮膚や舌の動きなどに関する生体情報を検出するセンサから構成されている。生体情報検出部102は、筋電位センサ、加速度センサ、超音波センサ、触覚センサ、光センサ、圧力センサなどの少なくとも1つである。なお、生体情報検出部102は、生体情報を検出するセンサであれば、上記センサ以外であってもよい。生体情報検出部102は、ユーザの口や舌の動きに関する生体情報を検出するため、頸部、下顎部、口回り、こめかみなどの部位に設置することが望ましい。口や舌の動きに関する生体情報を検出できる場所であれば、生体情報検出部102は、上記の部位以外に設置されていてもよい。
音情報検出部103は、外部の環境音、ユーザの発話時の音声や、咳や咀嚼音、嚥下音など発話以外のユーザが発する音を検出するセンサ(マイク)から構成されている。音情報検出部103は、コンデンサマイク、骨伝導マイク、皮膚伝導マイクなどの少なくとも1つである。音情報検出部103は、ユーザが発する音を検出するセンサであれば、上記マイク以外であってもよい。また、音情報検出部103において、外部の環境音を検出するセンサ(マイク)と、ユーザの発話時の音声や、咳や咀嚼音、嚥下音など発話以外のユーザが発する音を検出するセンサ(マイク)は別々に設置されていてもよい。
音情報検出部103は、少なくとも二つ以の検出部から構成されてもよい。音情報検出部103は、例えば、体内から発する音情報を検出する音情報検出部と外部音を検出する音情報検出部である。体内から発する音情報を検出する音情報検出部103は、例えば、骨伝導マイク、若しくは皮膚伝導マイクである。
情報処理装置101は、検出デバイス100から送信された生体情報と音情報を受信する受信部105と、受信部105が受信した生体情報と音情報を文字情報、音声情報若しくは音声情報に変換する変換部106と、受信部105が受信した音情報を解析し、音情報の特性が所定の条件を満たしているか否かを判定する判定部110とを有している。
情報処理装置101は、スマートフォン、パーソナルコンピュータ(personal computer:PC)、タブレットPC(tablet PC)などを示すが、それに限ったものではない。情報処理装置101が、例えば、パーソナルコンピュータである場合、変換部106によって変換された文字情報はディスプレイなどの表示部107に送信される。表示部107は、文字情報を表示する。情報処理装置101は、表示部107における表示形態を制御する表示制御部(図示しない。)を有していてもよい。
変換部106は、該変換された文字情報を、さらに音声情報に変換することができる。または、変換部106は生体情報を直接音声情報に変換することもできる。変換部106で変換された音声情報は、音情報出力部108に送信される。音情報出力部108はスピーカーであり、音情報出力部108は音声情報を再生することができる。
判定部110は、受信部105が受信した音情報の特性を解析し、音情報の特性が所定の条件を満たしているか否かを判定する。判定部110は、例えば、受信部105が受信した音情報の音量が所定の閾値より大きいか否かを判定する。また、判定部110は、受信部105が受信した音情報の特性から、音情報にノイズ(発話以外の音)が含まれているか否かを判定する。さらに、判定部110は、受信部105が受信した音情報の特性から、ユーザが発話している発話期間であるか(ユーザの発声が含まれているか)否かを判定することもできる。ユーザは、判定部110の上記判定条件を任意に選択することができる。ノイズは、例えば、ユーザの体内から発せられる発話と関係のない情報である。
なお、ユーザは、判定部110の上記判定条件を任意に組み合わせて選択することもできる。判定部110は、例えば、受信部105が受信した音情報の音量が所定の閾値より大きいか否かと、音情報にノイズが含まれているか否かを同時に判定することができる。また、判定部110は、例えば、受信部105が受信した音情報の特性から、ユーザが発話している発話期間であるか(ユーザの発声が含まれているか)否かと、音情報にノイズが含まれているか否かを同時に判定することもできる。
音情報の特性が所定の条件を満たしていると判定部110が判定した場合、ユーザが発話した音声が適切に検出できている可能性が高いため、変換部106は、音情報検出部103で検出された音情報を文字情報に変換する。
例えば、音情報の音量が所定の閾値より大きいと判定部110が判定した場合、変換部106は、音情報検出部103で検出された音情報を文字情報に変換する。
また、受信部105が受信した音情報のユーザが発話した音量が所定の閾値より大きく、音情報にノイズが含まれていないまたはノイズが少ない場合、変換部106は、音情報検出部103で検出された音情報を文字情報に変換する。なお、判定部110が音情報においてユーザの発話に関する音のS/Nが閾値より大きいと判定した場合、変換部106は、音情報検出部103で検出された音情報を文字情報に変換してもよい。一方、音情報の特性が所定の条件を満たしていないと判定部110が判定した場合、ユーザが発話した音声が適切に検出できていない可能性が高いため、変換部106は、生体情報検出部102で検出された生体情報を文字情報若しくは音声情報に変換する。
音情報の音量が所定の閾値以下であると判定部110が判定した場合、変換部106は、生体情報検出部102で検出された生体情報を文字情報若しくは音声情報に変換する。また、受信部105が受信した音情報に外部音によるノイズが含まれている場合、ユーザが発話している発話期間ではない場合、変換部106は、生体情報検出部102で検出された生体情報を文字情報若しくは音声情報に変換する。なお、受信部105が受信した音情報に咳や咀嚼音、嚥下音など体内から発せられるノイズが含まれている場合、生体情報検出部102で検出された生体情報もノイズが含まれている可能性が高い。そのため、変換部106は、生体情報検出部102で検出された生体情報を文字情報にも音声情報に変換しないようにすることもできる。外部音および体内から発せられるノイズの識別のために2種類のマイクを用いることも可能である。例えば外部音の取り込みのための通常のマイクと、体内から発生する音に対する骨伝導マイクや皮膚伝導マイクなどを用いることができる。
変換部106は、生体情報検出部102で検出された生体情報を文字情報若しくは音声情報に変換する際、第一の変換手法(第一の変換アルゴリズム)を用いて、生体情報を文字情報若しくは音声情報に変換する。変換部106は、音情報検出部103で検出された音情報を文字情報に変換する際、第二の変換手法(第二の変換アルゴリズム)を用いて、音情報を文字情報に変換する。
第一の変換手法における変換アルゴリズムと第二の変換手法における変換アルゴリズムには、ニューラルネットワークによって構成されたアーキテクチャによる学習済みモデルが用いられる。情報処理装置100は、学習済みモデルを記憶する記憶部(図示しない。)を有している。変換部106は、学習済みモデルを用いて推論を行う機能を有している。
学習済みモデルは、ディープラーニングであるCNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)を用いて生成されたモデルである。CNNやRNNを派生させたモデル以外にも、サポートベクターマシンやロジスティック回帰、ランダムフォレスト等の他の機械学習技術を用いてもよいし、ルールベースに基づく手法を用いてもよい。
情報処理装置101は、例えば、生体情報検出部102で検出された生体情報と文字情報若しくは音声情報とを対応づけて学習することにより、第一の変換手法で用いる学習済みモデルを生成する。情報処理装置101は、音情報検出部103で検出された音情報と文字情報とを対応づけて学習することにより、第二の変換手法で用いる学習済みモデルを生成する。
具体的には、情報処理装置101は、事前に、生体情報検出部102で検出された生体情報(例えば、筋電位信号の波形)と文字情報若しくは音声情報(例えば、あ、い、う、え、お、若しくはそれらの音とがそれぞれ対応付けられた複数のデータセットを取得する。生体情報検出部102は、例えば、ユーザの皮膚に接触する面(接触面)に、複数の電極を有しており、それぞれ電極においてユーザの筋電位信号を計測することができる。
図1では、学習部111が情報処理装置101に構成されている。なお、学習部111は、クラウド上に構成されていてもよい。学習部111がクラウド上に構成される場合、情報処理装置101のデータ転送部(図示しない。)を介して、各種データが転送される。
学習部111は、複数のデータセットにおける生体情報と文字情報若しくは音声情報の対応関係を教師データとし、生体情報と文字情報若しくは音声情報と対応づけて学習することにより、第一の変換手法で用いる学習済みモデルを生成する。このように、生体情報と文字情報若しくは音声情報と対応づけて学習された学習済みモデルを用いて、変換部106は、新たに入力された生体情報に対して推論を行ない、文字情報若しくは音声情報を出力することができる。
同様にして、学習部111は、事前に、音情報検出部103で検出された音情報(例えば、音情報の波形)と文字情報(例えば、あ、い、う、え、お)とがそれぞれ対応付けられた複数のデータセットを取得する。学習部111は、複数のデータセットにおける音情報と文字情報の対応関係を教師データとし、音情報の特性と文字情報と対応づけて学習することにより、第二の変換手法で用いる学習済みモデルを生成する。このように、音情報と文字情報と対応づけて学習された学習済みモデルを用いて、変換部106は、新たに入力された音情報に対して推論を行ない、文字情報を出力することができる。
なお、第一の変換手法における変換アルゴリズムと第二の変換手法における変換アルゴリズムを説明したが、音情報及び生体情報を含む情報を文字情報若しくは音声情報に変換する第三の変換アルゴリズムを用いることもできる。
具体的には、学習部111は、事前に、生体情報検出部102で検出された生体情報と音情報検出部103で検出された音情報とを含む情報と、文字情報若しくは音声情報とがそれぞれ対応付けられた複数のデータセットを取得する。学習部111は、複数のデータセットにおける生体情報と音情報の特性とを含む情報と文字情報若しくは音声情報の対応関係を教師データとし、生体情報と音情報とを含む情報と文字情報若しくは音声情報と対応づけて学習することにより、第三の変換手法で用いる学習済みモデルを生成する。このように、生体情報と音情報とを含む情報と文字情報と対応づけて学習された学習済みモデルを用いて、変換部106は、新たに入力された生体情報と音情報とを含む情報に対して推論を行ない、文字情報若しくは音声情報を出力することができる。
学習部111は、音情報検出部103によって検出された音情報を用いて第二の変換手法によって変換された文字情報と、音情報検出部103によって検出された音情報と同時に取得された生体情報検出部102によって取得された生体情報との対応関係を教師データとし、生体情報と文字情報若しくは音声情報と対応づけて学習することにより、第一の変換手法で用いる学習済みモデルを更新することができる。
なお、情報処理装置101は、クラウド上に構成されていてもよい。検出デバイス100における送信部104は、生体情報検出部102で検出された生体情報と音情報検出部103で検出された音情報をクラウドに送信する。クラウドでは、生体情報と音情報を文字情報若しくは音声情報に変換し、該変換された文字情報を表示部107に送信する。表示部107は、文字情報を表示する。また、変換された文字情報をさらに音声情報に変換し音情報出力部108に送信してもよい。また、生体情報を直接、音声情報に変換し音情報出力部108に送信してもよい。
検出デバイス100と情報処理装置101との間の通信は、有線、無線のいずれであってもよい。検出デバイス100と情報処理装置101との間の通信が有線で実現される場合、検出デバイス100における送信部104と情報処理装置101における受信部105は、USBケーブル、HDMI(登録商標)などによる有線によって接続される。
検出デバイス100と情報処理装置101との間の通信が無線で実現される場合、検出デバイス100における送信部104と情報処理装置101における受信部105は、WiFiなどの無線LANの通信、Bluetooth(登録商標)などの近距離無線通信などによる無線によって接続される。
情報処理装置101がスマートフォン、タブレットPCであれば、表示部107はディスプレイである。音情報出力部108はスマートフォン、タブレットPCに設置されたスピーカー、若しくは、スマートフォン、タブレットPCに接続されたイヤホンになる。
本発明の情報変換システムは、ユーザの1つ以上の箇所から生体情報を検出する生体情報検出部102と、音情報を検出する音情報検出部103と、音情報の特性が所定の条件を満たしているか否かを判定する判定部110と、音情報検出部103で検出した音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、生体情報検出部102で検出した生体情報から変換された文字情報若しくは音声情報を出力し、音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、音情報検出部103で検出した音情報から変換された文字情報を出力する変換部106とを備える。
変換部106は、音情報検出部103で検出した音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、生体情報検出部102で検出した生体情報を文字情報若しくは音声情報に変換し、音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、音情報を文字情報に変換することができる。
変換部106は、音情報検出部103で検出した音情報の特性に応じて、第一の変換手法から第二の変換手法に、若しくは第二の変換手法から第一の変換手法に切り替え、切り替えられた変換手法によって変換された文字情報若しくは音声情報を出力することができる。
変換部106は、音情報検出部103で検出した音情報の特性が所定の条件を満たす場合、第三の変換手法を用いて、音情報及び生体情報を含む情報から変換された文字情報を出力することもできる。変換部106は、音情報検出部103で検出した音情報の特性に応じて、第一の変換手法から第三の変換手法に、若しくは第三の変換手法から第一の変換手法に切り替え、切り替えられた変換手法によって変換された文字情報若しくは音声情報を出力することができる。
判定部110が音情報検出部103で検出した音情報にノイズが含まれていると判定した場合、変換部106は、生体情報を文字情報にも音声情報にも変換しないようにすることができる。
判定部110が音情報検出部103で検出した音情報の音量が閾値より大きいと判定した場合、変換部106は、音情報を文字情報に変換し、音情報検出部103で検出した音情報の音量が閾値以下であると判定した場合、変換部106は、生体情報を文字情報に変換することもできる。
判定部110が音情報検出部103で検出した音情報がユーザの発話期間であると判定した場合、変換部106は、音情報を文字情報に変換する。判定部110が音情報検出部103で検出した前記音情報がユーザの非発話期間と判定した場合、変換部106は、生体情報を文字情報若しくは音声情報に変換する。
音情報検出部103で検出した音情報の特性に応じて、変換部106は、生体情報を文字情報若しくは音声情報に変換する第一の変換手法と、音情報を文字情報に変換する第二の変換手法のいずれか一方を設定し、生体情報又は音情報を文字情報若しくは音声情報に変換する。本発明の情報処理装置101は、生体情報検出部102で検出された生体情報と音情報検出部103で検出された音情報を受信する受信部105と、音情報の特性が所定の条件を満たしているか否かを判定する判定部110と、音情報検出部103で検出した音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、生体情報検出部102で検出した生体情報から変換された文字情報若しくは音声情報を出力し、音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、音情報検出部103で検出した音情報から変換された文字情報を出力する変換部106とを備える。変換部106は、音情報検出部103で検出した音情報の特性が所定の条件を満たす場合、第三の変換手法を用いて、音情報及び生体情報を含む情報から変換された文字情報若しくは音声情報を出力することもできる。
なお、情報処理装置101は、生体情報検出部102で検出した生体情報を所定の評価基準に基づいて評価し、所定の評価基準に満たない生体情報に対応する文字情報若しくは音声情報を削除する処理部を備えることもできる。
よって、本発明によれば、高精度に変換された文字情報若しくは音声情報を出力することができる。
本発明の情報変換システムの動作を示すフローチャートを図2に示す。
ユーザは、生体情報検出部102によって生体情報が検出できる位置に検出デバイス100を装着する。ユーザは、検出デバイス100を頭部、頸部、頭部や頸部の周辺などに装着する。生体情報検出部102は、筋電位信号、加速度情報、超音波情報、触覚情報、光情報、圧力情報などの少なくとも一つを含む生体情報を検出する。生体情報検出部102が生体情報を検出する際、時間情報(時刻情報)を取得する。生体情報には、時間情報に関する付帯情報が付与される。(S100)
ユーザは、音情報検出部103によって音情報が検出できる位置に検出デバイス100を設置する。ユーザは、検出デバイス100をユーザの首~頭の任意の箇所で、ユーザの周囲の環境音を検出できる位置に設置する。生体情報検出部102が生体情報を検出するタイミングと同じタイミングで音情報検出部103は音情報を検出する。音情報検出部103が音情報を検出する際、時間情報(時刻情報)を取得する。音情報には、時間情報に関する付帯情報を付与される。(S101)
送信部104は、音情報と生体情報を情報処理装置101へ送信する。生体情報と音情報には、それぞれ、時間情報(時刻情報)に関する付帯情報が付与されている。生体情報と音情報は、付帯情報によって、紐づけられる。生体情報と音情報は、時間情報(時刻情報)に関する付帯情報によって、紐づけられているため、送信部104は、同じ時間帯(時刻)で検出された生体情報と音情報を情報処理装置101へ送信することができる。(S102)
検出デバイス100で検出された音情報と生体情報は、情報処理装置101の受信部105で受信される。受信部105は、音情報と生体情報を変換部106へ伝達する。受信部105は、音情報を判定部110へ伝達する。判定部110は、受信部105が受信した音情報の特性を解析し、音情報の特性が所定の条件を満たしているか否かを判定する。例えば、判定部110は、音情報にユーザの発声が含まれているか否かを判定する。(S103)
音情報の特性が所定の条件を満たしていない場合、S104に移行し、音情報の特性が所定の条件を満たしている場合、S105に移行する。
判定部110による判定の結果、音情報の特性が所定の条件を満たしていない場合、変換部106は、第一の変換手法によって生体情報を文字情報若しくは音声情報に変換する。また、変換部106は、生体情報を音声情報に変換してもよく、文字情報に変換した後、音声合成を行って音声情報に変換してもよい。変換部106は、生体情報から変換された文字情報を出力する。(S104)
なお、生体情報検出部102によって生体情報を検出する際、その時に音情報検出部103で検出された音情報に発話以外のユーザの発する音情報(例えば唾下音、咳)が含まれると判定部110が判定した場合がある。その場合、変換部106が生体情報を文字情報にも音声情報にも変換しないように設定することもできる。
判定部110による判定の結果、音情報の特性が所定の条件を満たしている場合、変換部106は、第二の変換手法によって音情報を文字情報に変換する。(S105)
音情報検出部103で検出された音情報にノイズが含まれている場合、変換部106は、第二の変換アルゴリズムによって音情報を文字情報に変換しないように設定することもできる。また、音情報検出部103で検出された音情報のS/Nが悪い場合、変換部106は、音情報及び生体情報を含む情報を文字情報若しくは音声情報に変換する第三の変換アルゴリズムを用いて、音情報と生体情報を含む情報を文字情報若しくは音声情報に変換することもできる。なお、音情報検出部103で検出された音情報のS/Nが悪い場合、変換部106は、生体情報のみを用いて変換しても構わない。
表示部107は、変換部106で変換された文字情報を表示するし、音情報出力部は変換部106で変換された文字情報をさらに変換した音声情報を出力する。(S106)
また、変換部106で変換された文字情報は、情報処理装置101の記憶部に記憶することができる。ネットワークを介して文字情報が転送され、外部端末で表示することも可能である。
また、文字情報若しくは音声情報から音声情報に変換することにより外部端末で再生、記録することが可能であり、再生される音声についてはイヤホンを介してユーザが聞くことも可能である。これにより、ユーザは正しく変換されているかを確認することができる。さらに、ネットワークを介して音声情報が転送され、他の外部端末で再生、記録することも可能である。また、変換された文字情報を基に外部端末の制御も可能である。これら一連のフローを繰り返し行うことによって、生体情報を用いた連続的なコミュニケーションが可能となる。
次に、本発明の情報変換システムを用いた文字変換機能の実施例1を説明する。本発明の情報変換システムの概略を図3に示す。検出デバイス100の模式図を図4に示す。
ここでは、情報変換システムの情報処理装置がスマートフォン300である形態を示す。検出デバイス100において、生体情報検出部401、402、403と音情報検出部404、405が複数である。なお、検出デバイスは、バッテリー(図示しない。)より電源供給される。また、スマートフォン300において、表示部303と音情報出力部304の位置以外、図1に示す情報処理装置101の構成と同様であるので、ここでは説明を省略する。
図4(a)に示すように、ユーザは検出デバイス100を頸部に装着する。検出デバイス100は、ユーザの頸部に巻き付けて装着するチョーカー型(環状形状)であり、伸縮性がある部材(生地)で構成されている。検出デバイス100には、ユーザの頸部に装着するために、伸縮性がある部材の両端を連結する連結部が備えられていてもよい。図4(b)に示すように、検出デバイス100は、生体情報検出部401、402、403と、音情報検出部404、405と、送信部406とによって構成されている。送信部406には、生体情報検出部401、402、403と音情報検出部404、405が接続されている。送信部406は、生体情報検出部401、402、403で検出された生体情報と、音情報検出部404、405で検出された音情報を外部に送信することができる。
生体情報検出部401、402、403は、例えば、6軸の加速度センサである。6軸の加速度センサは、例えば、3軸の並進加速度と、3軸の角加速度を計測することができるセンサである。生体情報検出部401、402、403は、チョーカー型である検出デバイス100の内側(内周面)に設置されている。そのため、生体情報検出部401、402、403を、ユーザの皮膚に接触させることができ、生体情報検出部401、402、403で生体情報(各種加速度)を検出することができる。これにより、生体情報検出部401、402、403は、ユーザの部位の動きに関する情報を検出することができる。
音情報検出部404は、例えば、ユーザの内部から発する音を検出する骨伝導マイクである。骨伝導マイクは、ユーザの発声による振動がユーザの頸部に伝達され、頸部の骨の振動を検出し、音情報を検出するマイクである。音情報検出部404は、例えば、頸部の皮膚の振動を検出し、音情報を検出する皮膚伝導マイクなど様々な伝導方式に応じたマイクであってもよい。音情報検出部404は、チョーカー型である検出デバイス100の内側(内周面)に設置されている。そのため、音情報検出部404を、ユーザの皮膚に接触させることができ、頸部の皮膚の振動を検出することができる。よって、音情報検出部404は、ユーザの内部から発する音を検出することができる。
音情報検出部405は、外部の環境音を取り込むためのマイクである。音情報検出部405は、チョーカー型である検出デバイス100の外側(外周面)に設置されている。音情報検出部405は、外部の環境音を検出することができる。マーカ410は、ユーザに対して位置合わせ行うための印である。ユーザは、マーカ410を指標にして、生体情報検出部402と頸部の中心(喉など)を合わせることができ、検出デバイス100を適切に頸部に装着することができる。
生体情報検出部401、402、403で検出された生体情報と、音情報検出部404、405で検出された音情報は、送信部406によって、例えばBluetooth接続のスマートフォン300に伝達される。スマートフォン300のアプリケーション内の受信部301がデータを受信する。判定部305は、受信部301が受信した音情報を解析し、音情報の特性が所定の条件を満たしているか否かを判定する。変換部302は、判定部305の判定結果に応じて、受信部301が受信した生体情報又は音情報を文字情報若しくは音声情報に変換する。変換部302で変換された文字情報は、スマートフォンの表示部303であるディスプレイに表示される。音情報出力部304は、変換部302で変換された音声情報を再生する。
本発明の情報変換システムの動作を示すフローチャートを図5に示す。
ユーザは、検出デバイス100を頸部に装着する。ユーザは、生体情報検出部401、402、403によって生体情報が検出できる位置及び音情報検出部404、405によって音情報が検出できる位置に検出デバイス100を装着する。生体情報検出部401、402、403は、ユーザの生体情報を取得する。(S500)
生体情報検出部401、402、403のサンプリングレートは1kHzに設定される。
生体情報検出部401、402、403が生体情報を検出するタイミングと同じタイミングで音情報検出部404、405は音情報を検出する。(S501)
音情報検出部404、405のサンプリングレートは16kHzに設定される。
送信部406は、音情報と生体情報をスマートフォン300へ送信する。(S502)
音情報と生体情報は、受信部305を介して変換部306と判定部305へ伝達される。判定部305は、音情報検出部404が検出した音情報に対して、ユーザが発声した音声情報があるか無いかをニューラルネットワークを用いたモデルを用いて判定する。(S503)
音情報検出部404が検出した音情報に、ユーザが発声した音声情報がある場合、S504に移行し、音情報検出部404が検出した音情報に、ユーザが発声した音声情報がない場合、S505に移行する。
音情報検出部404が検出した音情報に、音声情報がある場合、音声情報がない場合それぞれに対して、変換部302は、変換アルゴリズムを切り替えて音情報又は生体情報を文字情報に変換する。変換部302は、ユーザが発声しているときの音情報又は生体情報を文字情報若しくは音声情報に変換し、文字情報を出力する。(S504)
判定部305は、音情報検出部404が検出した音情報に音声情報がない場合、音情報検出部404はユーザが意図しない動きに関する音(咳、唾の飲み込みなどに関わる)を取得して、音情報にユーザが発する発話以外の音があるか否かを判定する。(S505)
音情報にユーザが発する発話以外の音がある場合、S506に移行し、音情報検出部404が検出した音情報にユーザが発する発話以外の音がない場合、S507に移行する。
音情報検出部404が検出した音情報にユーザが発する発話以外の音がある場合、変換部302は、その情報を用いた変換処理は実施せずに終了する。(S506)
音情報検出部404が検出した音情報にユーザが発する発話以外の音がない場合、変換部302は、ユーザが発声していないときの生体情報を文字情報若しくは音声情報に変換し、文字情報を出力する。(S507)
音情報にユーザが発する発話以外の音がない場合、変換部302は、上述した第一の変換手法によって生体情報を文字情報若しくは音声情報に変換する。具体的には、6軸×3加速度センサの計18軸のセンサ情報を第一の変換アルゴリズムの入力データとして用いることによって文字情報に変換される。そして、表示部303は、変換した文字情報を表示する。(S508)
また、音情報検出部404が検出した音情報にユーザが発する発話以外の音がある場合でも、音声情報のS/Nが悪い場合は、音声情報に加えて生体情報も用いて変換してもよい。また、生体情報のみから変換することに設定することも可能である。
次に、本発明の情報変換システムを用いた文字変換機能の実施例2を説明する。本発明の情報変換システムの概略を図6に示す。検出デバイス100の模式図を図7に示す。
図6に示すように、検出デバイス100は、ユーザに対して生体情報検出部701~705が装着されたことを検知する装着検知部708を有している。情報処理装置として用いるスマートフォン300の構成は、図3に示すスマートフォン300の構成と同様であるので、ここでは説明を省略する。
装着検知部708において、ユーザに対して生体情報検出部701~705が装着されたと検知した場合、変換部302は、生体情報検出部701~705で検出した生体情報を文字情報に変換することが可能になる。装着検知部708において、ユーザに対して生体情報検出部701~705が装着されたと検知しなかった場合、生体情報検出部701~705で検出した生体情報を文字情報若しくは音声情報に変換することができない。
検出デバイス100は、生体情報検出部701~705と、音情報検出部706、707と、生体情報検出部で検出された生体情報と音情報検出部で検出された音情報を送信する送信部709とを有している。スマートフォン300(情報処理装置)は、送信部709から送信された生体情報と音声情報を受信する受信部301と、判定部305と、変換部302とを有している。
装着検知部708において、ユーザに対して生体情報検出部701~705が装着されたと検知した場合、検出デバイス100と情報処理装置300とが通信可能な状態となる。
図7(a)に示すように、ユーザは検出デバイス100を顎部に装着する。図7(b)に示すように、検出デバイス100は、生体情報検出部701~705、音情報検出部706、707、装着検知部708および送信部709によって構成されている。
検出デバイス100は、ユーザの顎に装着する顎マスク型であり、伸縮性がある部材(生地)で構成されている。検出デバイス100は、2つの耳掛け部710と、頸部及び顎接触部711とから形成されている。頸部及び顎接触部711は、伸縮性がある部材(生地)で構成されている。
頸部及び顎接触部711には、生体情報検出部701~705、音情報検出部706、707、装着検知部708が配置されている。ユーザは、耳掛け部710を両耳に掛け、検出デバイス100をユーザに装着すると、生体情報検出部701~705、音情報検出部706、707、装着検知部708がユーザの頸部及び顎にそれぞれ設置されるようになっている。
送信部709には、生体情報検出部701~705と音情報検出部706、707、装着検知部708が接続されている。送信部709は、生体情報検出部701~705で検出された生体情報と、音情報検出部706、707で検出された音情報と、装着検知部708で検知された装着検知結果を外部に送信することができる。
生体情報検出部701~705は、例えば、筋電位センサであり、頸部及び下顎部に配置される。生体情報検出部701~705は、検出デバイス100の裏面(接触面)に設置されている。そのため、生体情報検出部701~705を、ユーザの皮膚に接触させることができ、生体情報検出部701~705で生体情報(筋電位情報)を検出することができる。
音情報検出部706は、例えば、ユーザの内部から発する音を検出するための骨伝導マイクである。音情報検出部706は、皮膚伝導マイクであってもよい。音情報検出部706は、検出デバイス100の裏面(接触面)に設置されている。そのため、音情報検出部706を、ユーザの皮膚に接触させ、ユーザの内部から発する音を検出することができる。音情報検出部707は、外部の環境音を取り込むためのマイクである。音情報検出部707は、検出デバイス100の表面(非接触面)に設置されている。音情報検出部707は、外部の環境音を検出することができる。
装着検知部708は、筋電位センサの出力をモニタリングし、ユーザが検出デバイス100を頸部及び下顎部に装着したことを検知する。装着検知部708は、筋電位センサの出力波形の特性に基づいて、検出デバイス100を装着したことを検知する。筋電位センサの出力波形の特性は、例えば、筋電位の最大値、筋電位の波形パターンなどであり、筋電位の最大値が所定値を超えていれば、検出デバイス100を装着したことを検知する。また、筋電位の波形パターンが所定の波形パターンに類似するパターンであれば、検出デバイス100を装着したことを検知する。
図6に示すように、生体情報検出部701~705で検出された生体情報と、音情報検出部706、707で検出された音情報、装着検知部708で検知された装着検知結果は、送信部709によって、例えばWifi接続のスマートフォン300に伝達される。スマートフォン300のアプリケーション内の受信部301がデータを受信する。判定部305は、受信部301が受信した音情報を解析し、音情報の特性が所定の条件を満たしているか否かを判定する。判定部305は、装着検知部708で検知された装着検知結果を用いて、判定してもよい。
変換部302は、判定部305の判定結果に応じて、受信部301が受信した生体情報又は音情報を文字情報に変換する。変換部302によって変換された文字情報は、スマートフォンの表示部303であるディスプレイに表示される。音情報出力部304は、変換部302で変換された音声情報を再生する。
本発明の情報変換システムの動作を示すフローチャートを図8に示す。
ユーザは、生体情報検出部701~705によって生体情報が検出できる位置及び音情報検出部706、707によって音情報が検出できる位置に検出デバイス100を装着する。検出デバイス100の電源が投入された後に生体情報検出部701~705は生体情報を検出する。(S801)
生体情報検出部701~705のサンプリングレートは2kHzである。
装着検知部708において生体情報の特性(筋電位センサの出力波形の特性)から、検出デバイス100が装着されたことを検知する。(S802)
装着検知部708において検出デバイス100が装着されたことを検知した場合、検出デバイス100と情報処理装置300とが通信可能な状態となる。検出デバイス100の送信部709はスマートフォン300に接続され、各種情報を送信することができる。(S803)
生体情報検出部701~705が生体情報を取得し、音情報検出部706、707は音情報を取得する(S804)。音情報検出部706、707のサンプリングレートは16kHzに設定した。音情報と生体情報を送信部709がスマートフォン300へ送信する。(S805)
音情報と生体情報は、受信部305を介して変換部306と判定部305へ伝達される。判定部305は、音情報検出部706が検出した音情報に対して、ユーザが発声した音声情報があるか無いかをニューラルネットワークを用いたモデルを用いて判定する。(S806)
音情報検出部706が検出した音情報に、ユーザが発声した音声情報がある場合、S807に移行し、音情報検出部706が検出した音情報に、ユーザが発声した音声情報がない場合、S808に移行する。
音情報検出部706が検出した音情報に、音声情報がある場合、音声情報がない場合それぞれに対して、変換部302は、変換アルゴリズムを切り替えて音情報又は生体情報を文字情報に変換する。変換部302は、ユーザが発声しているときの音情報又は生体情報を文字情報に変換し、文字情報を出力する。(S807)
判定部305は、音情報検出部706が検出した音情報に音声情報がない場合、音情報検出部706はユーザが意図しない動きに関する音(咳、唾の飲み込みなどに関わる)を取得して、音情報にユーザが発する発話以外の音があるか否かを判定する。(S808)
音情報検出部706が検出した音情報にユーザが発する発話以外の音がある場合、S809に移行し、音情報検出部706が検出した音情報にユーザが発する発話以外の音がない場合、S810に移行する。
音情報検出部706が検出した音情報にユーザが発する発話以外の音がある場合、変換部302は、その情報を用いた変換作業は変換せずに終了する。(S809)
音情報検出部706が検出した音情報にユーザが発する発話以外の音がない場合、変換部302は、ユーザが発声していないときの生体情報を文字情報若しくは音声情報に変換し、文字情報若しくは音声情報を出力する。(S810)
音情報検出部706が検出した音情報にユーザが発する発話以外の音がない場合、変換部302は、上述した第一の変換手法によって生体情報を文字情報若しくは音声情報に変換する。具体的には、筋電位センサの筋電位情報を第一の変換アルゴリズムの入力データとして用いることによって文字情報若しくは音声情報に変換される。そして、表示部303は、変換した文字情報を表示する。(S811)
また、音情報検出部706が検出した音情報にユーザが発する音声情報がある場合でも、音声情報のS/Nが悪い場合は、音声情報に加えて生体情報も用いて変換してもよい。また、生体情報のみから変換することに設定することも可能である。
次に、本発明の情報変換システムを用いた文字変換機能の実施例3を説明する。検出デバイス100の模式図を図9に示す。図9に示した検出デバイス100を図6で示した情報変換システムに適用することができる。
検出デバイス100は、メガネの一部に各検出部を有したメガネ型である。装着検知部901と、送信部902と、生体情報検出部903、904、905と、音情報検出部906、907とによって構成されている。生体情報検出部903、904は筋電位センサである。生体情報検出部905は、6軸の加速度センサである。生体情報検出部903、904の筋電位センサは、ユーザのこめかみ部に設置される。生体情報検出部905の加速度センサは、ユーザの眉間部に設置される。音情報検出部906は、ユーザの内部から発する音を検出するための骨伝導マイクである。音情報検出部907は、外部の環境音を取り込むためのマイクである。
送信部902には、装着検知部901と生体情報検出部903、904、905と音情報検出部906、907が接続されている。送信部902は、装着検知部901で検知された装着検知結果と、生体情報検出部903、904、905で検出された生体情報と、音情報検出部906、907で検出された音情報を外部に送信することができる。
装着検知部901は、筋電位センサ又は加速度センサの出力をモニタリングし、ユーザが検出デバイス100をユーザに装着したことを検知する。装着検知部901は、筋電位センサ又は加速度センサの出力波形の特性に基づいて、検出デバイス100をユーザに装着したことを検知する。
生体情報検出部903、904、905で検出された生体情報と、音情報検出部906、907で検出された音情報、装着検知部901で検知された装着検知結果は、送信部902によって、例えば、Bluetooth接続のスマートフォン300に転送される。スマートフォン300のアプリケーション内の受信部301がデータを受信する。判定部305は、受信部301が受信した音情報を解析し、音情報の特性が所定の条件を満たしているか否かを判定する。判定部305は、装着検知部901で検知された装着検知結果を用いて、判定してもよい。
変換部302は、判定部305の判定結果に応じて、受信部301が受信した生体情報又は音情報を文字情報に変換する。変換部302は、生体情報検出部903、904の筋電位センサで検出された筋電位情報を文字情報若しくは音声情報に変換することができる。また、変換部302は、生体情報検出部905の加速度センサで検出された加速度情報を文字情報若しくは音声情報に変換することができる。さらに、変換部302は、生体情報検出部903、904の筋電位センサで検出された筋電位情報と、生体情報検出部905の加速度センサで検出された加速度情報とを含む情報から文字情報若しくは音声情報に変換することもできる。
変換部302によって変換された文字情報は、スマートフォンの表示部303であるディスプレイに表示される。音情報出力部304は、変換部302で変換された音声情報を再生する。
次に、本発明の情報変換システムを用いた文字変換機能の実施例4を説明する。本発明の情報変換システムの概略を図10に示す。検出デバイス100の模式図を図11に示す。
検出デバイス100は、ユーザの指に装着する指輪型(リング形状)であり、ユーザの指に嵌めて装着することができる。検出デバイス100は、装着検知部1001と、送信部1002と、生体情報検出部1003と、音情報検出部1004とによって構成されている。生体情報検出部1003は、例えば、6軸の触覚センサによって構成されている。6軸の触覚センサは、3軸方向の力と3軸方向のモーメントとを検知することができるセンサである。音情報検出部1004は、ユーザが発する音などを検出するマイクである。
生体情報検出部1003は、指輪型である検出デバイス100の外側(外周面)に設置されている。そのため、ユーザは、検出デバイス100をユーザの皮膚に押し当て、生体情報検出部1003をユーザの皮膚に接触させることにより、生体情報検出部1003で生体情報(触覚情報)を検出することができる。
音情報検出部1004は、指輪型である検出デバイス100の外側(外周面)に設置されている。そのため、音情報検出部1004は、ユーザが発する音などを検出することができる。
装着検知部1001は、生体情報検出部1003の出力をモニタリングし、ユーザがデバイスを下顎部に接触させたこと検知する。装着検知部1001は触覚センサの出力波形の特性に基づいて、検出デバイス100を装着したことを検知する。
送信部1002には、生体情報検出部1003と音情報検出部1004、装着検知部1001が信号線1010を介して接続されている。送信部1002は、生体情報検出部1003で検出された生体情報と、音情報検出部1004で検出された音情報と、装着検知部1001で検知された装着検知結果を外部に送信することができる。
生体情報検出部1003で検出された生体情報と、音情報検出部1004で検出された音情報は、送信部1002によって無線でスマートフォン1105に転送される。スマートフォン1105のアプリケーション内の受信部1106は、生体情報検出部1003で検出された生体情報と、音情報検出部1004で検出された音情報を受信する。データ転送部1107は、クラウド1111上に生体情報と音情報を転送し、クラウド1111上の変換部1108が生体情報から音声情報へ変換を行う。変換手法は、上記実施例で説明したため、説明は省略する。
変換部1108で変換された音声情報は、データ転送部1107に転送される。変換部1108で変換された音声情報は他のスマートフォン1110に転送され再生される。ユーザは、同時に変換された音声はイヤホン1005などの音情報出力部1109を介して再生され変換結果を確認する。
本発明の情報変換システムの動作を示すフローチャートを図12に示す。
ユーザは、生体情報検出部1003によって生体情報が検出できる位置及び音情報検出部1004によって音情報が検出できる位置に検出デバイス100を装着する。検出デバイス100の電源が投入された後に、生体情報検出部1003は生体情報を検出する。(S1201)
触覚センサのサンプリングレートは100Hzである。
装着検知部1001において生体情報の特性(触覚センサの出力波形の特性)から、検出デバイス100が装着されたことを検知する。(S1202)
装着検知部1001において検出デバイス100が装着されたことを検知した場合、検出デバイス100とスマートフォン1110とが通信可能な状態となる。具体的には、検出デバイス100の送信部1002は、スマートフォン1110と接続を行うことができる。(S1203)
生体情報検出部1003が生体情報を検出し、音情報検出部1004は音情報を検出する。(S1204)。
音情報検出部1004のサンプリングレートは16kHzに設定した。音情報と生体情報を送信部1002がスマートフォン1105へ送信する。(S1205)
生体情報検出部1003で検出された生体情報と、音情報検出部1004で検出された音情報は、受信部1106からデータ転送部1107を介してクラウド1111上の変換部1108へ転送される。(S1206)
変換部1108は、生体情報を音声情報に変換する。変換部1108は音情報にユーザが意図しない動きに関する音(咳、唾の飲み込みなどに関わる)を判定する。(S1207)
音情報検出部1004が検出した音情報にユーザが意図しない動きに関する音がある場合、S1208に移行し、音情報検出部1004が検出した音情報にユーザが意図しない動きに関する音がない場合、S1209に移行する。
音情報検出部1004が検出した音情報にユーザが意図しない動きに関する音があった場合、生体情報を変換せずに終了する(S1208)。
音情報検出部1004が検出した音情報にユーザが意図しない動きに関する音がない場合、変換部1108は、6軸の触覚センサで取得した情報を入力情報として、変換アルゴリズムによって生体情報を音声情報に変換する。変換部1108で変換された音声情報はスマートフォン1105に転送される。(S1209)
変換アルゴリズムはニューラルネットワークによって構成されたアーキテクチャによる学習済みモデルを用いた。スマートフォン1105に転送された音声情報はデータ転送部1107を介してユーザのイヤホン1005で再生される。(S1210)
同時に、変換した音声情報は通話相手(他のスマートフォン1110)へ転送される。(S1211)
次に、本発明の情報変換システムを用いたWEB会議の実施例5を説明する。本発明の情報変換システムの概略を図13に示す。検出デバイス100の模式図を図14に示す。
検出デバイス100は、マスクの一部に各検出部を有したマスク型である。検出デバイス100は、送信部1301と、生体情報検出部1302~1305と、音情報検出部1306とによって構成されている。生体情報検出部1302~1305は、例えば、6軸の加速度センサである。音情報検出部1306は、ユーザが発する音などを検出するマイクである。
送信部1301には、生体情報検出部1302~1305と音情報検出部1306が接続されている。送信部1301は、生体情報検出部1302~1305で検出された生体情報と、音情報検出部1306で検出された音情報とを外部に送信することができる。
検出デバイス100の電源を入れることにより、検出デバイス100は情報処理装置101と接続される。その後、生体情報検出部1302~1305で検出された生体情報と、音情報検出部1306で検出された音情報は、送信部1301によって無線で情報処理装置101に転送される。
情報処理装置101のアプリケーション内の受信部1406が生体情報検出部1302~1305で検出された生体情報と、音情報検出部1306で検出された音情報を受信する。変換部1407は、生体情報から音声情報へ変換を行い、データ転送部1408を介して音声情報が通話相手(Web会議相手)の情報処理装置1410へ転送される。同時に変換された音声情報はイヤホン1307などの音情報出力部1409を介して再生される。
本発明の情報変換システムの動作を示すフローチャートを図15に示す。
ユーザは、生体情報検出部1302~1305によって生体情報が検出できる位置及び音情報検出部1306によって音情報が検出できる位置に検出デバイス100を装着する。検出デバイス100の電源が投入された後に生体情報検出部1302~1305は生体情報を検出する。(S1500)
加速度センサのサンプリングレートは1kHzである。
音情報検出部1306は音情報を検出する。(S1504)音情報検出部1306は、マイクであり、音情報検出部1306のサンプリングレートは16kHzである。生体情報検出部1302~1305で検出された生体情報と、音情報検出部1306で検出された音情報を送信部1301が情報処理装置101へ送信する。(S1502)
生体情報検出部1302~1305で検出された生体情報と、音情報検出部1306で検出された音情報は、受信部1406が受け取り変換部1407へ送られる。変換部1407若しくは判定部(図示しない。)は、音情報検出部1306で検出された音情報に対してユーザが発声した音声情報があるか否かについて、ニューラルネットワークを用いたモデルで判定する。(S1503)
音情報検出部1306で検出された音情報に、ユーザが発声した音声情報がある場合、S1504に移行し、音情報検出部1306で検出された音情報に、ユーザが発声した音声情報がない場合、S1505に移行する。
音情報検出部1306で検出された音情報にユーザが発声した音声情報がある場合、音声情報をWeb会議の相手の情報処理装置1410に転送する。(S1504)
音情報検出部1306で検出された音情報にユーザが発声した音声情報がない場合、音情報にユーザが意図しない動きに関する音(咳、唾の飲み込みなどに関わる)があるか否かを判別する。(S1505)
音情報検出部1306で検出された音情報にユーザが意図しない動きに関する音がある場合、S1506に移行し、音情報にユーザが意図しない動きに関する音がない場合、S1507に移行する。
音情報検出部1306で検出された音情報にユーザが意図しない動きに関する音があった場合、生体情報を用いた変換処理を行わずに終了する。(S1506)
音情報検出部1306で検出された音情報にユーザが意図しない動きに関する音がない場合、変換部1407は生体情報を音声情報に変換する。(S1507)
音声情報は、データ転送部1408を介してユーザのイヤホン1307に転送され、再生される。(S1508)
同時に、変換した音声情報はWeb会議の相手の情報処理装置1410へ転送される。(S1509)
次に、本発明の情報変換システムを用いたWeb会議の実施例6を説明する。検出デバイス100の模式図を図16に示す。図16に示した検出デバイス100を図13で示した情報変換システムに適用することができる。
検出デバイス100は、ヘッドセットの一部に各検出部を有したヘッドセット型である。検出デバイス100は、送信部1601と、生体情報検出部1602と、音情報検出部1603と、イヤホン1604とによって構成されている。生体情報検出部1602は、超音波センサである。超音波センサは、超音波送受信部から対象物に向かう方向に超音波を送信し、対象物から反射された超音波を受信することにより、超音波送受信部から対象物までの距離を測定することができるセンサである。生体情報検出部1602は、超音波センサを用いて、ユーザが口を動かしたときの、超音波センサから口元又は喉元までの距離の変化に関する超音波情報を検出することができる。音情報検出部1603は、ユーザが発する音などを検出するマイクである。
送信部1601には、生体情報検出部1602と音情報検出部1603が接続されている。送信部1601は、生体情報検出部1602で検出された生体情報と、音情報検出部1603で検出された音情報とを外部に送信することができる。
検出デバイス100の電源を入れることにより、検出デバイス100は情報処理装置101と接続される。その後、生体情報検出部1602で検出された生体情報と、音情報検出部1603で検出された音情報は、送信部1601によって情報処理装置101に転送される。
情報処理装置101のアプリケーション内の受信部1406が生体情報検出部1602で検出された生体情報と、音情報検出部1603で検出された音情報を受信する。変換部1407は、生体情報から音声情報へ変換を行い、データ転送部1408を介して音声情報が通話相手(Web会議相手)の情報処理装置1410へ転送される。同時に変換された音声情報はイヤホン1604などの音情報出力部1409を介して再生される。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、または、その主要な特徴から逸脱することなく、様々な形で実施することができる。
Claims (28)
- ユーザの1つ以上の箇所から生体情報を検出する生体情報検出部と、
音情報を検出する音情報検出部と、
前記音情報の特性が所定の条件を満たしているか否かを判定する判定部と、
前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した生体情報から変換された文字情報若しくは音声情報を出力し、
前記音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、前記音情報検出部で検出した前記音情報から変換された文字情報を出力する変換部とを備えることを特徴とする情報変換システム。 - 前記音情報の特性が所定の条件を満たす場合、前記変換部は、第三の変換手法を用いて、前記音情報検出部で検出した前記音情報と前記生体情報検出部で検出した生体情報とを含む情報から変換された文字情報若しくは音声情報を出力することを特徴とする請求項1に記載の情報変換システム。
- 前記音情報検出部で検出した前記音情報の特性に応じて、前記変換部は、前記第一の変換手法から前記第二の変換手法に、若しくは前記第二の変換手法から前記第一の変換手法に切り替え、切り替えられた変換手法によって変換された文字情報若しくは音声情報を出力することを特徴とする請求項1に記載の情報変換システム。
- 前記音情報検出部は、少なくとも二つ以上の検出部から構成されることを特徴とする請求項1に記載の情報変換システム。
- 前記音情報検出部は、体内から発する音情報を検出する音情報検出部と外部音を検出する音情報検出部であることを特徴とする請求項4に記載の情報変換システム。
- 前記体内から発する音情報を検出する音情報検出部は、骨伝導マイク、若しくは皮膚伝導マイクであることを特徴とする請求項5に記載の情報変換システム。
- 前記判定部が前記音情報検出部で検出した前記音情報にノイズが含まれていると判定した場合、前記変換部は、前記生体情報を文字情報にも音声情報に変換しないことを特徴とする請求項1に記載の情報変換システム。
- 前記判定部が前記音情報検出部で検出した前記音情報においてユーザの発話に関する音の音量が閾値より大きいと判定した場合、前記変換部は、前記音情報を文字情報若しくは音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記判定部が前記音情報検出部で検出した前記音情報においてユーザの発話に関する音のS/Nが閾値より大きいと判定した場合、前記変換部は、前記音情報を文字情報若しくは音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記判定部が前記音情報検出部で検出した前記音情報においてユーザの発話に関する音の音量が閾値以下であると判定した場合、前記変換部は、前記生体情報を文字情報若しくは音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記判定部が前記音情報検出部で検出した前記音情報がユーザの発話期間であると判定した場合、前記変換部は、前記音情報を文字情報若しくは音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記判定部が前記音情報検出部で検出した前記音情報がユーザの非発話期間と判定した場合、前記変換部は、前記生体情報を文字情報若しくは音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記音情報検出部で検出した前記音情報の特性に応じて、前記変換部は、生体情報を文字情報若しくは音声情報に変換する第一の変換手法と、前記音情報を文字情報に変換する第二の変換手法のいずれか一方を設定し、前記生体情報又は前記音情報を文字情報若しくは音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記生体情報は、筋電位情報、加速度情報、超音波情報、触覚情報、光情報、圧力情報の少なくとも1つであることを特徴とする請求項1に記載の情報変換システム。
- 前記変換部は、前記生体情報から変換された文字情報を、さらに音声情報に変換することを特徴とする請求項1に記載の情報変換システム。
- ユーザの1つ以上の箇所から生体情報を検出する生体情報検出部と、
音情報を検出する音情報検出部と、
前記音情報の特性が所定の条件を満たしているか否かを判定する判定部と、
前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した生体情報から変換された文字情報若しくは音声情報を出力し、
前記音情報の特性が所定の条件を満たす場合、第三の変換手法を用いて、前記音情報及び前記生体情報を含む情報から変換された文字情報を出力する変換部とを備えることを特徴とする情報変換システム。 - 前記音情報検出部で検出した前記音情報の特性に応じて、前記変換部は、前記第一の変換手法から前記第三の変換手法に、若しくは前記第三の変換手法から前記第一の変換手法に切り替え、切り替えられた変換手法によって変換された文字情報若しくは音声情報を出力することを特徴とする請求項16に記載の情報変換システム。
- 前記ユーザに対して前記生体情報検出部が装着されたことを検知する装着検知部を備え、
前記装着検知部において、前記ユーザに対して前記生体情報検出部が装着されたと検知した場合、前記変換部は、前記生体情報検出部で検出した生体情報を文字情報若しくは音声情報に変換することが可能になることを特徴とする請求項1に記載の情報変換システム。 - 前記装着検知部は、前記生体情報検出部で検出した生体情報を解析して、前記ユーザに対して前記生体情報検出部が装着されたことを検知することを特徴とする請求項18に記載の情報変換システム。
- 前記生体情報検出部と、前記音情報検出部と、前記生体情報検出部で検出された生体情報と前記音情報検出部で検出された音情報を送信する送信部とを有した検出デバイスと、
前記送信部から送信された生体情報と音声情報を受信する受信部と、前記判定部と、前記変換部とを有した情報処理装置とを備えることを特徴とする請求項1に記載の情報変換システム。 - 前記ユーザに対して前記生体情報検出部が装着されたことを検知する装着検知部を備え、
前記装着検知部において、前記ユーザに対して前記生体情報検出部が装着されたと検知した場合、前記検出デバイスと前記情報処理装置とが通信可能な状態となることを特徴とする請求項20に記載の情報変換システム。 - 前記検出デバイスは、チョーカー型、顎マスク型、メガネ型、指輪型、マスク型、ヘッドセット型のいずれか1つであることを特徴とする請求項20に記載の情報変換システム。
- 前記生体情報検出部で検出した生体情報を所定の評価基準に基づいて評価し、前記所定の評価基準に満たない生体情報に対応する文字情報若しくは音声情報を削除する処理部を備えることを特徴とする請求項1に記載の情報変換システム。
- 前記変換部は、前記音情報検出部で検出した音情報の特性が所定の条件を満たさない場合、前記第一の変換手法を用いて、前記生体情報検出部で検出した生体情報を文字情報若しくは音声情報に変換し、前記音情報の特性が所定の条件を満たす場合、前記第二の変換手法を用いて、音情報を文字情報に変換することを特徴とする請求項1に記載の情報変換システム。
- 前記音情報検出部によって検出された音情報を用い前記第二の変換手法によって変換された文字情報と、前記音情報検出部によって検出された音情報と同時に取得された前記生体情報検出部によって取得された生体情報との対応関係より、前記第一の変換手法で用いる学習済みモデルを更新することを特徴とする請求項1に記載の情報変換システム。
- 生体情報検出部で検出された生体情報と音情報検出部で検出された音情報を受信する受信部と、
前記音情報の特性が所定の条件を満たしているか否かを判定する判定部と、
前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した生体情報から変換された文字情報若しくは音声情報を出力し、前記音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、前記音情報から変換された文字情報を出力する変換部とを備えることを特徴とする情報処理装置。 - 生体情報検出部で検出された生体情報と音情報検出部で検出された音情報を受信するステップと、
前記音情報の特性が所定の条件を満たしているか否かを判定するステップと、
前記音情報検出部で検出した前記音情報の特性が所定の条件を満たさない場合、第一の変換手法を用いて、前記生体情報検出部で検出した生体情報から変換された文字情報若しくは音声情報を出力し、前記音情報の特性が所定の条件を満たす場合、第二の変換手法を用いて、前記音情報から変換された文字情報を出力するステップとを含む情報処理方法。 - 請求項27に記載の情報処理方法をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022064525A JP2023154894A (ja) | 2022-04-08 | 2022-04-08 | 情報変換システム、情報処理装置、情報処理方法及びプログラム |
PCT/JP2023/010507 WO2023195323A1 (ja) | 2022-04-08 | 2023-03-17 | 情報変換システム、情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022064525A JP2023154894A (ja) | 2022-04-08 | 2022-04-08 | 情報変換システム、情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023154894A true JP2023154894A (ja) | 2023-10-20 |
Family
ID=88242719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022064525A Pending JP2023154894A (ja) | 2022-04-08 | 2022-04-08 | 情報変換システム、情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023154894A (ja) |
WO (1) | WO2023195323A1 (ja) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264471A (ja) * | 2006-03-29 | 2007-10-11 | Toshiba Corp | 音声認識装置および音声認識方法 |
JP2014027459A (ja) * | 2012-07-26 | 2014-02-06 | Brother Ind Ltd | 通信装置、通信方法及び通信プログラム |
US9854529B2 (en) * | 2015-12-03 | 2017-12-26 | Google Llc | Power sensitive wireless communication radio management |
JP6716968B2 (ja) * | 2016-03-07 | 2020-07-01 | 株式会社デンソー | 音声認識装置、音声認識プログラム |
-
2022
- 2022-04-08 JP JP2022064525A patent/JP2023154894A/ja active Pending
-
2023
- 2023-03-17 WO PCT/JP2023/010507 patent/WO2023195323A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023195323A1 (ja) | 2023-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11294466B2 (en) | Measurement of facial muscle EMG potentials for predictive analysis using a smart wearable system and method | |
US11601743B2 (en) | Wireless ear bud system with pose detection | |
JP6391465B2 (ja) | ウェアラブル端末装置およびプログラム | |
JP4722573B2 (ja) | 顔面情報検出装置および顔面情報検出式通信装置 | |
US20110096941A1 (en) | Self-steering directional loudspeakers and a method of operation thereof | |
JP6580497B2 (ja) | 筋電信号を用いて顔表情を高い精度で識別する装置、デバイス、プログラム及び方法 | |
JP2011048818A (ja) | 指の動き検出装置およびその方法 | |
WO2012138450A1 (en) | Tongue tracking interface apparatus and method for controlling a computer program | |
US11706575B2 (en) | Binaural hearing system for identifying a manual gesture, and method of its operation | |
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR102314710B1 (ko) | 청각장애인을 위한 수화 번역 서비스 시스템 | |
KR20050065197A (ko) | 착용형 인터페이스 장치 | |
WO2023195323A1 (ja) | 情報変換システム、情報処理装置、情報処理方法及びプログラム | |
CN110572734A (zh) | 一种耳机智能监听环境音的方法及耳机 | |
US10488831B2 (en) | Biopotential wakeup word | |
JP6007487B2 (ja) | 情報処理装置、情報処理システムおよびプログラム | |
US11327576B2 (en) | Information processing apparatus, information processing method, and program | |
IL310468A (en) | Detection of silent speech | |
TWI741841B (zh) | 無線振動音頻轉換系統及其方法 | |
US11483658B1 (en) | In-ear detection of wearable devices | |
US20230277274A1 (en) | Surgical audio and video collection device | |
KR20210071851A (ko) | 도우미로봇을 이용한 도우미 시스템 | |
KR20220065225A (ko) | 반지형 vr 트래커 | |
JP2023036050A (ja) | 支援装置、支援方法、支援システムおよびプログラム | |
KR20210012748A (ko) | 장애인과 1인 가구를 위한 정서 공감 인형 및 이를 이용한 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |