JP7254345B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP7254345B2
JP7254345B2 JP2019153629A JP2019153629A JP7254345B2 JP 7254345 B2 JP7254345 B2 JP 7254345B2 JP 2019153629 A JP2019153629 A JP 2019153629A JP 2019153629 A JP2019153629 A JP 2019153629A JP 7254345 B2 JP7254345 B2 JP 7254345B2
Authority
JP
Japan
Prior art keywords
information
user
voice
processor
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019153629A
Other languages
English (en)
Other versions
JP2021033676A (ja
Inventor
雅弘 佐藤
賢吾 得地
Original Assignee
株式会社Agama-X
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Agama-X filed Critical 株式会社Agama-X
Priority to JP2019153629A priority Critical patent/JP7254345B2/ja
Priority to US16/746,982 priority patent/US11687049B2/en
Priority to CN202010063644.0A priority patent/CN112433602A/zh
Publication of JP2021033676A publication Critical patent/JP2021033676A/ja
Application granted granted Critical
Publication of JP7254345B2 publication Critical patent/JP7254345B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • G05B15/02Systems controlled by a computer electric
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/381Olfactory or gustatory stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/07Home care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Automation & Control Theory (AREA)
  • Anesthesiology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
脳波等の生体情報を用いて機器を操作することが考えられる。
引用文献1には、使用者の脳波から脳波生体信号を検出し、使用者の表面筋電位から表面筋電位生体信号を検出し、両生体信号に基づいて制御信号を演算する装置が記載されている。
引用文献2には、使用者の脳波を取得し、その脳波を分析することで得られた分析結果に従って複数の被操作装置を選択的に操作する装置が記載されている。
特開2015-211705号公報 特開2016-67922号公報
ところで、生体情報によって機器を正確に操作できるとは限らない。
本発明の目的は、生体情報を利用して機器を操作する場合において、機器の操作の精度を向上させることにある。
請求項に係る発明は、プロセッサを有し、前記プロセッサは、機器に対してユーザが手動で操作したときに発せられ前記ユーザの音声の認識結果を示す情報、及び、前記ユーザの音声以外の生体情報が、前記機器に対する手動の操作を示す手動操作情報の許容範囲に含まれる場合、それ以降の操作においては、生体情報に基づいて前記機器を操作し、前記機器に対する手動の操作を示す手動操作情報と、前記機器の操作を音声で表す音声情報と、前記音声が発せられたときの前記ユーザの音声以外の生体情報とが予め紐付けられて管理情報に登録されており、前記機器に対して前記ユーザが手動で操作するときに測定された前記ユーザの音声の認識結果を示す情報と、前記管理情報に登録されている音声情報との差異が第1許容範囲内である場合に操作し、前記機器に対して前記ユーザが手動で操作したときに測定された前記ユーザの音声以外の生体情報と、前記管理情報に登録されている生体情報との差異が第2許容範囲内である場合、生体情報に基づいて前記機器を操作する、情報処理装置である。
請求項に係る発明は、ユーザ毎に、手動操作情報と、音声情報と、生体情報とが紐付けられており、前記プロセッサは、ユーザ毎に音声を判別して、生体情報に基づいて前記機器を操作する、ことを特徴とする請求項1に記載の情報処理装置である。
請求項に係る発明は、前記プロセッサは、前記ユーザの睡眠中は、音声情報と生体情報とを紐付ける処理を中止する、ことを特徴とする請求項1に記載の情報処理装置である。
請求項に係る発明は、前記プロセッサは、前記ユーザの睡眠中は、生体情報による操作を中止する、ことを特徴とする請求項1から請求項5のいずれか一項に記載の情報処理装置である。
請求項に係る発明は、予め定められた数以上のユーザの音声が測定された場合、前記プロセッサは、生体情報による操作を中止する、ことを特徴とする請求項1から請求項のいずれか一項に記載の情報処理装置である。
請求項に係る発明は、前記プロセッサは、外部からの刺激を受けた前記ユーザから発生した前記生体情報に基づいて前記機器を操作する、ことを特徴とする請求項1から請求項のいずれか一項に記載の情報処理装置である。
請求項に係る発明は、前記外部からの刺激は、前記ユーザの会話相手の音声である、ことを特徴とする請求項に記載の情報処理装置である。
請求項に係る発明は、前記外部からの刺激は、匂いである、ことを特徴とする請求項に記載の情報処理装置である。
請求項に係る発明は、前記外部からの刺激は、温度である、ことを特徴とする請求項に記載の情報処理装置である。
請求項10に係る発明は、前記外部からの刺激は、前記ユーザが目視した状況である、ことを特徴とする請求項に記載の情報処理装置である。
請求項11に係る発明は、前記生体情報は脳波である、ことを特徴とする請求項1から請求項10のいずれか一項に記載の情報処理装置である。
請求項12に係る発明は、コンピュータに、機器に対してユーザが手動で操作したときに発せられ前記ユーザの音声の認識結果を示す情報、及び、前記ユーザの音声以外の生体情報が、前記機器に対する手動の操作を示す手動操作情報の許容範囲に含まれる場合、それ以降の操作においては、生体情報に基づいて前記機器を操作させ、前記機器に対する手動の操作を示す手動操作情報と、前記機器の操作を音声で表す音声情報と、前記音声が発せられたときの前記ユーザの音声以外の生体情報とが予め紐付けられて管理情報に登録されており、前記機器に対して前記ユーザが手動で操作するときに測定された前記ユーザの音声の認識結果を示す情報と、前記管理情報に登録されている音声情報との差異が第1許容範囲内である場合に操作させ、前記機器に対して前記ユーザが手動で操作したときに測定された前記ユーザの音声以外の生体情報と、前記管理情報に登録されている生体情報との差異が第2許容範囲内である場合、生体情報に基づいて前記機器を操作させる、プログラムである。
請求項1,12に係る発明によれば、生体情報を利用して機器を操作する場合において、機器の操作の精度を向上させることができる。
請求項に係る発明によれば、ユーザ毎の生体情報に基づいて機器を操作することができる。
請求項に係る発明によれば、紐付ける必要のない音声情報と生体情報とが紐付けられることが防止される。
請求項に係る発明によれば、ユーザの睡眠中に生体情報に基づいて機器が操作されることが防止される。
請求項に係る発明によれば、ユーザの意図しない操作が行われることが防止される。
請求項に係る発明によれば、外部からの刺激を受けたユーザから発生した生体情報に基づいて機器を操作することができる。
請求項に係る発明によれば、会話相手の音声を受けたユーザから発生した生体情報に基づいて機器を操作することができる。
請求項に係る発明によれば、匂いを嗅いだユーザから発生した生体情報に基づいて機器を操作することができる。
請求項に係る発明によれば、温度を感じたユーザから発生した生体情報に基づいて機器を操作することができる。
請求項10に係る発明によれば、ユーザが目視した状況に応じて当該ユーザから発生した生体情報に基づいて機器を操作することができる。
請求項11に係る発明によれば、脳波に基づいて機器を操作することができる。
本実施形態に係る情報処理システムの構成を示すブロック図である。 本実施形態に係る情報処理装置の構成を示すブロック図である。 管理テーブルを示す図である。 管理テーブルを示す図である。
図1を参照して、本実施形態に係る情報処理システムについて説明する。図1には、本実施形態に係る情報処理システムの構成の一例が示されている。
本実施形態に係る情報処理システムは、情報処理装置10と、1又は複数の生体情報測定装置12と、1又は複数のマイク14と、1又は複数のカメラ16と、1又は複数の臭気センサ18と、1又は複数の温度センサ20と、1又は複数の機器22とを含む。なお、図1に示されている各装置及び各センサの数は一例に過ぎず、各装置及び各センサの数が、図1に示されている各装置及び各センサの数に限定されるものではない。また、情報処理システムは、図1に示されている装置以外の他の装置(例えばサーバ等の外部装置)を含んでもよい。
情報処理装置10、生体情報測定装置12、マイク14、カメラ16、臭気センサ18、温度センサ20、及び、機器22は、他の装置や他のセンサ等と通信するように構成されている。その通信は、ケーブルを利用する有線通信であってもよいし、無線通信であってもよい。つまり、各装置及び各センサは、他の装置や他のセンサ等とケーブルによって物理的に接続されて、情報を互いに送受信してもよいし、無線通信によって互いに情報を送受信してもよい。無線通信として、例えば、近距離無線通信やWi-Fi(登録商標)等が用いられる。これら以外の規格の無線通信が用いられてもよい。近距離無線通信は、例えば、Bluetooth(登録商標)やRFID(Radio Frequency Identifier)やNFC等である。各装置は、LAN(Local Area Network)やインターネット等の通信経路を介して他の装置や他のセンサ等と通信してもよい。
情報処理装置10は、例えば、パーソナルコンピュータ(以下、「PC」と称する)、タブレットPC、スマートフォン、携帯電話、又は、その他の装置である。情報処理装置10は、ユーザが携帯することが可能な端末装置(例えば、タブレットPCやスマートフォンや携帯電話等)であってもよいし、テーブル等に設置されて使用される装置であってもよい。情報処理装置10は、通信機能とマイクとスピーカとを有するスマートスピーカであってもよい。情報処理装置10は、屋内(例えば、部屋の床、天井、テーブル等)に設置されてもよいし、屋外に設置されてもよい。また、情報処理装置10は、移動可能な装置(例えば自走式の装置)でもよい。
生体情報測定装置12は、センサや電極等を有し、ユーザの生体情報を測定するように構成されている。複数の生体情報測定装置12が情報処理システムに含まれている場合、各生体情報測定装置12は、異なる種類の生体情報を測定してもよい。もちろん、すべての生体情報測定装置12の中の一部又は全部は、同じ種類の生体情報を測定するように構成されてもよい。また、各生体情報測定装置12は、1つの種類の生体情報を測定するように構成されてもよいし、複数の種類の生体情報を測定するように構成されてもよい。
生体情報測定装置12は、自装置で測定した生体情報を情報処理装置10に送信する。生体情報測定装置12は、生体情報を測定する度に生体情報を情報処理装置10に送信してもよいし、生体情報を記憶し、予め定められた時間間隔毎に生体情報を情報処理装置10に送信してもよいし、ユーザが指定したタイミングで生体情報を情報処理装置10に送信してもよい。また、生体情報測定装置12は、他の生体情報測定装置12が測定した生体情報を当該他の生体情報測定装置12から受信し、自装置が測定した生体情報と当該他の生体情報測定装置12が測定した生体情報とを情報処理装置10に送信してもよい。
生体情報測定装置12は、自装置又は他の生体情報測定装置が測定した生体情報を分析し、その分析結果を示す情報を情報処理装置10に送信してもよい。例えば、生体情報測定装置12はプロセッサを含み、当該プロセッサが生体情報を分析してもよい。もちろん、その分析は情報処理装置10にて行われてもよい。
生体情報測定装置12は、バッテリを含み、当該バッテリから供給される電力によって駆動してもよいし、情報処理装置10から電力の供給を受けて駆動してもよい。
生体情報測定装置12は、生体情報測定装置12全体がユーザに装着されて生体情報を測定するウェアラブル装置であってもよい。例えば、生体情報測定装置12は、ユーザの頭部に装着される装置であってもよいし、ユーザの耳に装着されるヒアラブル装置であってもよいし、ユーザの腕や手や手首や指等に装着される装置(例えば腕時計型の装置等)であってもよいし、ユーザの首に掛けられる装置であってもよいし、ユーザの胴体や足等に装着される装置であってもよい。
生体情報は、生体であるユーザから発する様々な生理学的情報や解剖学的情報である。生体情報の概念の範疇には、例えば、脳の活動を示す情報(例えば、脳波、脳の血流量、脳磁場信号等)、脈拍数、血圧、心拍数、心電波形、筋電波形、眼球運動、体温、発汗量、視線、音声、及び、ユーザの動き等が含まれる。これら生体情報の一例に過ぎず、他の生理学的情報や解剖学的情報が生体情報として用いられてもよい。生体情報測定装置12は、これらの生体情報の中の1つの生体情報を測定してもよいし、複数の生体情報を測定してもよい。
情報処理装置10は、生体情報測定装置12から生体情報を受けて、生体情報の分析、生体情報の記憶、生体情報の出力、生体情報の分析結果を示す情報の記憶、及び、生体情報の分析結果を示す情報の出力等を行う。もちろん、生体情報の分析は生体情報測定装置12によって行われてもよい。生体情報を出力することは、例えば、生体情報を表示することや、生体情報を音声情報として出力すること等である。生体情報の分析結果を示す情報を出力することは、例えば、分析結果を示す情報を表示することや、分析結果を音声情報として出力すること等である。情報処理装置10は、生体情報や分析結果を示す情報を他の装置に送信してよい。
情報処理装置10は、1又は複数の生体情報測定装置12を含んでもよい。つまり、1又は複数の生体情報測定装置12は、情報処理装置10に組み込まれて、1つの装置が構成されてもよい。1又は複数の生体情報測定装置12を含む情報処理装置10全体が、ユーザに装着されて生体情報を測定してもよい。つまり、情報処理装置10はウェアラブル装置であってもよい。例えば、情報処理装置10は、ユーザの頭部に装着される装置であってもよいし、ユーザの耳に装着されるヒアラブル装置であってもよいし、ユーザの腕や手や手首や指等に装着される装置(例えば腕時計型の装置)であってもよいし、ユーザの首に掛けられる装置であってもよいし、ユーザの胴体や足等に装着される装置であってもよい。
もちろん、情報処理装置10と生体情報測定装置12は、別々の装置であってもよい。例えば、情報処理装置10はスマートスピーカであり、生体情報測定装置12は、ユーザに装着されるウェアラブル装置であってもよい。
マイク14は、音波を集める装置である。マイク14の周囲の音(例えば、人の音声やその他の音)がマイク14に入力されて、マイク14によって音データが生成される。マイク14に入力された音を表す音データは、マイク14の周囲の環境を示す環境情報の一例に相当する。その意味で、マイク14は、環境情報測定装置の一例に相当する。また、マイク14に入力されたユーザの音声を表す音データは、当該ユーザの生体情報の一例に相当する。その意味で、マイク14は、当該ユーザの生体情報を測定する生体情報測定装置の一例に相当する。
カメラ16は、撮影装置である。情報処理装置10の周囲やその他の場所がカメラ16によって撮影されて、当該周囲を表す画像データやその他の場所を表す画像データが生成される。当該画像データは、動画像データであってもよいし、静止画像データであってもよい。カメラ16によって撮影された画像データは、カメラ16の撮影範囲に含まれている環境を示す環境情報の一例に相当する。その意味で、カメラ16は、環境情報測定装置の一例に相当する。また、カメラ16によってユーザが撮影されることで生成された、当該ユーザを表す画像データは、当該ユーザの生体情報の一例に相当する。例えば、当該画像データから検知される当該ユーザの動きや当該ユーザの体型等は、当該ユーザの生体情報の一例に相当する。その意味で、カメラ16は、当該ユーザの生体情報を測定する生体情報測定装置の一例に相当する。
臭気センサ18は、臭気センサ18の周囲の匂いを測定し、測定した匂いを表す臭気データを生成する装置である。臭気センサ18によって測定された匂いを表す臭気データは、臭気センサ18の周囲の環境を示す環境情報の一例に相当する。その意味で、臭気センサ18は、環境情報測定装置の一例に相当する。また、臭気センサ18によって測定されたユーザの匂いを表す臭気データは、当該ユーザの生体情報の一例に相当する。その意味で、臭気センサ18は、当該ユーザの生体情報を測定する生体情報測定装置の一例に相当する。
温度センサ20は、温度センサ20の周囲の温度を測定し、測定した温度を表す温度データを生成する装置である。温度センサ20によって測定された温度を表す温度データは、温度センサ20の周囲の環境を示す環境情報の一例に相当する。その意味で、温度センサ20は、環境情報測定装置の一例に相当する。また、温度センサ20によって測定されたユーザの温度を表す温度データは、当該ユーザの生体情報の一例に相当する。その意味で、温度センサ20は、当該ユーザの生体情報を測定する生体情報測定装置の一例に相当する。
なお、カメラ16、臭気センサ18及び温度センサ20は、情報処理システムに含まれなくてもよいし、これらの中の少なくとも1つが情報処理システムに含まれもよい。これら以外の環境情報測定装置(例えば、湿度センサや照度センサや気圧センサや赤外線センサ等)が、情報処理システムに含まれてもよい。1又は複数の環境情報測定装置が、情報処理装置10に含まれてもよい。例えば、カメラ16が情報処理装置10に含まれてもよい。また、マイク14が情報処理装置10に含まれてもよい。
機器22は、例えば、PC、タブレットPC、スマートフォン、携帯電話、ロボット(例えば、人型ロボット、人以外の動物型ロボット、掃除ロボット、及び、それら以外のロボット等)、プロジェクタ、液晶ディスプレイ等の表示装置、記録装置、再生装置、カメラ等の撮像装置、冷蔵庫、炊飯器、電子レンジ、コーヒーメーカー、掃除機、洗濯機、空調機、照明機器、時計、監視カメラ、自動車、二輪車、航空機(例えば無人航空機(例えばドローン))、ゲーム機、ガスレンジ、温水洗浄便座、換気扇、呼び鈴、玄関モニタ、エレベータ、ドア、窓、又は、各種のセンシング機器(例えば温度センサ、湿度センサ、電圧センサ、電流センサ等)等の装置である。機器22の概念の範疇には機器全般が含まれてもよい。例えば、情報機器、映像機器、音響機器、その他の機器も、本実施形態に係る機器22の範疇に含まれてもよい。
以下、情報処理装置10の構成について詳しく説明する。
情報処理装置10は、例えば、通信装置24と、UI26と、記憶装置28と、プロセッサ30とを含む。情報処理装置10は、これら以外の構成を含んでもよい。
通信装置24は通信インターフェースであり、他の装置にデータを送信する機能、及び、他の装置から送信されてきたデータを受信する機能を有する。通信装置24は、無線通信機能を有してもよいし、有線通信機能を有してもよい。通信装置24は、例えば近距離無線通信を利用することで他の装置と通信してもよいし、LANやインターネット等の通信経路を介して他の装置と通信してもよい。通信装置24は、生体情報測定装置12と通信することで、生体情報測定装置12から送信されてきた生体情報を受信する。通信装置24は、生体情報測定装置12の動作を制御するための制御情報を生体情報測定装置12に送信してもよい。また、通信装置24は、環境情報測定装置と通信することで、環境情報測定装置から送信されてきた環境情報を受信する。通信装置24は、環境情報測定装置の動作を制御するための制御情報を環境情報測定装置に送信してもよい。
UI26はユーザインターフェースであり、表示装置と操作装置とを含む。表示装置は、液晶ディスプレイやELディスプレイ等である。操作装置は、キーボードや入力キーや操作パネル等である。UI26は、表示装置と操作装置とを兼ね備えたタッチパネル等のUIであってもよい。また、マイクがUI26に含まれてもよいし、音を発するスピーカがUI26に含まれてもよい。
記憶装置28は、各種のデータを記憶する1又は複数の記憶領域を構成する装置である。記憶装置28は、例えば、ハードディスクドライブ、各種のメモリ(例えばRAMやDRAMやROM等)、その他の記憶装置(例えば光ディスク等)、又は、それらの組み合わせである。1又は複数の記憶装置28が情報処理装置10に含まれている。
記憶装置28には、管理情報が記憶されている。管理情報は、機器22を操作するための生体情報を管理するための情報である。例えば、機器22の操作毎に、機器22に対する手動の操作を示す手動操作情報と、当該機器22の操作を音声で表す音声情報と、当該音声が発せられたときの音声以外の生体情報と、当該機器22の操作を示す制御情報とが、予め紐付けられて管理情報に登録されている。ユーザ毎に、手動操作情報と、音声情報と、音声以外の生体情報と、制御情報とが紐付けられて管理情報に登録されてもよい。
プロセッサ30は、ユーザの生体情報に基づいて機器22を操作するように構成されている。例えば、機器22に対してユーザが手動で操作したときに発せられた当該ユーザの音声の認識結果、及び、音声以外の当該ユーザの生体情報が、当該機器22に対する手動の操作を示す手動操作情報の許容範囲に含まれる場合、それ以降の操作においては、プロセッサ30は、当該ユーザの生体情報に基づいて当該機器22を操作する。それ以降の操作においては、プロセッサ30は、ユーザの音声と、音声以外の当該ユーザの生体情報との組み合わせに基づいて、機器22を操作してもよいし、音声以外のユーザの生体情報に基づいて、機器22を操作してもよい。例えば、プロセッサ30は、制御情報に従って当該機器22を操作する。
機器22に対してユーザが手動で操作したときに発せされた当該ユーザの音声は、マイク14によって測定され、そのときの当該ユーザの生体情報は、生体情報測定装置12によって測定される。
また、プロセッサ30は、カメラ16によって撮影された画像データを解析することで、ユーザによって手動で操作された機器22と当該操作の内容とを認識してもよいし、各機器22と通信することで、ユーザによって手動で操作された機器22と当該操作の内容とを認識してもよい。例えば、機器22は、自装置がユーザによって操作されると、自装置がユーザによって操作されたことを示す情報と、当該操作の内容を示す情報と、自装置を識別するための情報とを含む通知情報を、情報処理装置10に送信する。プロセッサ30は、機器22から送信されてきた通知情報に基づいて、ユーザによって手動で操作された機器22と当該操作の内容とを認識する。
プロセッサ30は、例えば、ユーザの音声の波形、及び、音声以外の生体情報を表す波形に基づいて、ユーザの音声の認識結果、及び、音声以外の当該ユーザの生体情報が、手動操作情報の許容範囲に含まれるか否かを判断する。例えば、その判断のための要素として、波形の形状、ピーク、周期又は振幅等の、波形の特徴が用いられる。また、プロセッサ30は、音声の認識結果からユーザの発言の意味内容を把握し、その意味内容が、手動操作情報の許容範囲に含まれるか否かを判断してもよい。
機器22に対してユーザが手動で操作したときに発せられた当該ユーザの音声の認識結果、及び、音声以外の当該ユーザの生体情報が、当該機器22に対する手動の操作を示す手動操作情報の許容範囲に含まれる場合とは、例えば、当該機器22に対して当該ユーザが手動で操作したときに測定された当該ユーザの音声の認識結果と、管理情報に登録されている音声情報との差異が第1許容範囲内であり、当該機器22に対して当該ユーザが手動で操作したときに測定された当該ユーザの音声以外の生体情報と、管理情報に登録されている生体情報との差異が第2許容範囲内になる場合である。第1許容範囲及び第2許容範囲は、予め定められた値であり、ユーザ等によって変更されてもよい。
つまり、機器22に対してユーザが手動で操作したときに測定された当該ユーザの音声の認識結果と、管理情報に登録されている音声情報との差異が第1許容範囲内であり、当該機器22に対して当該ユーザが手動で操作したときに測定された当該ユーザの音声以外の生体情報と、管理情報に登録されている生体情報との差異が第2許容範囲内である場合、それ以降の操作においては、プロセッサ30は、当該ユーザの生体情報に基づいて当該機器22を操作する。
機器22に対してユーザが手動で操作したときとは、機器22に対して手動で操作が行われたその時点であってもよいし、手動で操作が行われた時点を含む期間であってもよい。手動で操作が行われた時点を含む期間は、手動で操作が行われた時点よりも後の期間を含む期間であってもよいし、手動で操作が行われた時点よりも前の期間を含む期間であってもよいし、手動で操作が行われた時点の前後の期間を含む期間であってもよい。手動で操作が行われた時点よりも後の期間を含む期間は、手動で操作が行われた時点から予め定められた時間が経過するまでの期間である。手動で操作が行われた時間よりも前の期間を含む期間は、手動で操作が行われた時点よりも前の予め定められた時点から手動で操作が行われた時点までの期間である。手動で操作が行われた時点の前後の期間を含む期間は、手動で操作が行われた時点よりも後の期間と、手動で操作が行われた時点よりも前の期間の両方を含む期間である。つまり、プロセッサ30は、手動で操作が行われたその時点で測定された音声及び他の生体情報、手動で操作が行われた時点よりも後の期間を含む期間に測定された音声及び他の生体情報、手動で操作が行われた時点よりも前の期間を含む期間に測定された音声及び他の生体情報、又は、手動で操作が行われた時点の前後の期間を含む期間に測定された音声及び他の生体情報が、手動操作情報の許容範囲に含まれるか否かを判断する。その判断に用いられる音声及び他の生体情報が測定された時点又は期間は、ユーザによって定められてもよいし、予め定められてもよい。
手動で行われる操作の内容が複数の操作を含む場合、当該複数の操作に含まれる最初の操作が行われた時点が、手動で操作が行われた時点であってもよいし、当該複数の操作に含まれる途中の操作が行われた時点が、手動で操作が行われた時点であってもよいし、当該複数の操作に含まれる最後の操作が行われた時点が、手動で操作が行われた時点であってもよい。例えば、エアコンの設定温度を変更するボタンを連続的に押して設定温度を変える場合等のように、同一の操作が手動で連続的に行われる場合、連続的な操作の最初の時点(例えば連続的に操作される同一のボタンが押された最初の時点)、連続的な操作の途中の時点(例えば連続的に操作される同一のボタンが押されている途中の時点)、又は、連続的な操作の最後の時点(例えば連続的に操作される同一のボタンが押された最後の時点)のいずれかが、手動で操作が行われた時点として定められる。また、複数の異なるボタンを連続的に押す場合等のように、複数の異なる操作が手動で連続的に行われる場合も同様に、連続的な操作の最初の時点(例えば複数の異なるボタンの中の最初のボタンが押された時点)、連続的な操作の途中の時点(例えば複数の異なるボタンの中の途中のボタン(最初と最後のボタン以外のボタン)が押された時点)、又は、連続的な操作の最後の時点(例えば複数の異なるボタンの中の最後のボタンが押された時点)のいずれかが、手動で操作が行われる時点として定められる。その時点は、ユーザによって定められてもよいし、予め定められてもよい。
ユーザの音声を認識する処理は、プロセッサ30によって行われてもよいし、サーバ等の外部装置によって行われてもよい。音声を認識する処理として、例えば公知技術が用いられる。また、音声を認識する処理が、人工知能によって行われてもよい。
ユーザ毎に、手動操作情報と、音声情報と、音声以外の生体情報と、制御情報とが紐付けられて管理情報に登録されている場合、プロセッサ30は、ユーザ毎に音声を判別して、生体情報に基づいて機器22を操作してもよい。
例えば、脳の活動を測定する生体情報測定装置12と情報処理装置10とによって、ブレイン・マシン・インターフェースが構築されてもよい。ブレイン・マシン・インターフェースの方式は、侵襲式であってもよいし、非侵襲式であってもよい。この場合、プロセッサ30は、ユーザの脳の活動(例えば脳波等)に基づいて機器22を操作する。プロセッサ30は、機器22を操作するために、脳波から特徴的な成分を抽出し、その抽出された成分に基づいて機器22を操作してもよい。脳波から特徴的な成分を抽出するために、高速フーリエ変換(FFT:Fast Fourier Transform)や、ウェーブレット変換(WT:Wavelet Transform)、TFD(Time Frequency Distribution)、EM(Eigenvector Methods)、自己回帰モデル(ARM:Auto Regressive Method)等が用いられてもよい。また、特徴の抽出によって得られた特徴ベクトルを用いて、脳波と機器22の操作とを結び付ける方法として、例えば、独立成分分析(ICA:Independent Component Analysis)、k平均法、サポートベクターマシン(SVM:Support Vector Machine)、畳み込みニューラルネットワーク等が用いられてもよい。
また、プロセッサ30は、情報処理装置10の各部の動作を制御するように構成されている。プロセッサ30は、メモリを含んでもよい。
以下、具体例を挙げて、本実施形態に係る情報処理システムについて詳しく説明する。
図3には、管理情報の一例である管理テーブルの一例が示されている。管理テーブルのデータは、記憶装置28に記憶されている。なお、管理テーブルのデータは、記憶装置28に記憶されずに、サーバ等の外部装置に記憶されてもよい。
管理テーブルにおいては、機器22の操作毎に、IDと、機器情報と、手動操作情報と、音声情報と、音声以外の生体情報の一例である脳波と、制御情報とが予め紐付けられている。図3に示されている管理テーブルは、個々のユーザの具体的な生体情報が反映された管理テーブルではなく、予め作成されたデフォルトの管理テーブルである。ここでは、音声以外の生体情報として脳波が用いられているが、音声以外の生体情報であれば、脳波以外の生体情報が用いられてもよい。
IDは、機器22の操作を管理するための情報である。機器情報は、操作される機器22を識別するための情報であり、例えば、当該機器22の名称、機器ID又は型番等である。手動操作情報は、当該機器22に対するユーザの手動の操作を示す情報である。音声情報は、当該機器22の当該操作を音声で表す情報である。音声情報は、当該機器22の当該操作を音声で表す音声データ(例えば、当該音声を表す波形)そのものであってもよいし、当該音声の認識結果を示す情報であってもよい。当該音声の認識結果を示す情報は、当該音声を文字列で表す情報であってもよいし、当該音声の特徴を表す情報であってもよいし、当該音声が表す意味内容を示す情報であってもよい。具体的には、音声情報は、当該機器22に対してユーザが、当該手動操作情報が示す操作を手動で行うときに、当該ユーザから発せられると想定される音声を表す情報である。脳波は、当該機器22に対する当該操作を表す生体情報である。具体的には、脳波は、当該機器22に対して当該操作が行われるときに当該ユーザから発せられると想定される生体情報である。なお、脳波そのもの(つまり波形)が、管理テーブルに登録されずに、脳波を分析することで特定された操作を示す情報が、管理テーブルに登録されてもよい。制御情報は、当該機器22の操作を示す情報である。
以下、具体例を挙げて説明する。
ID「1」に紐付けられている情報は、機器22の一例である「エアコンα」の操作に関する情報である。
ID「1」に紐付けられている手動操作情報は、「「エアコンα」の電源がオフのときに電源ボタンを押す」という手動の操作を示す情報である。「エアコンα」の電源がオフのときに「エアコンα」の電源をオンする場合、ユーザは「エアコンα」の電源ボタンをオンすることが想定される。この手動操作情報は、その手動の操作を示す情報である。「エアコンα」の電源ボタンは、例えば、「エアコンα」を操作するためのリモコン等に設けられている。
ID「1」に紐付けられている音声情報は、「スイッチオン」という音声を表す情報である。この音声情報は、「スイッチオン」という音声を表す音声データ(例えば、当該音声を表す波形)そのものであってもよいし、文字列「スイッチオン」を示す情報であってもよい。「スイッチオン」という音声を表す音声情報は、「エアコンα」の電源がオフの場合においてユーザが電源ボタンを押すときに当該ユーザから発せられると想定される音声を表す情報である。つまり、「エアコンα」の電源がオフの場合においてユーザが電源ボタンを押すときに、当該ユーザは「スイッチオン」を表す音声を発すると想定される。
ID「1」に紐付けられている脳波は、「エアコンα」の電源をオンするという操作を表す脳波である。具体的には、この脳波は、「エアコンα」の電源がオフの場合においてユーザが電源をオンするときに当該ユーザから発せられると想定される脳波である。つまり、「エアコンα」の電源がオフの場合においてユーザが電源をオンするときに、当該ユーザから、ID「1」に紐付けられている脳波が発せられると想定される。
ID「1」に紐付けられている制御情報は、「エアコンα」の電源をオンするという操作を示す情報である。
例えば、「エアコンα」の電源がオフのときに、ユーザが、音声を発しながら「エアコンα」の電源ボタンを押したものとする。その音声は、マイク14によって測定される。また、当該ユーザが音声を発しながら「エアコンα」の電源ボタンを押したときに当該ユーザから発せられた脳波が、生体情報測定装置12によって測定される。
「エアコンα」の電源がオフのときに「エアコンα」の電源ボタンを押すという操作は、ID「1」の操作である。例えば、機器22である「エアコンα」は、ユーザによって手動で操作されると、自装置がユーザによって手動で操作されたことを示す情報と、当該操作の内容(例えば電源をオンする操作)を示す情報と、自装置である「エアコンα」を識別するための情報とを含む通知情報を、情報処理装置10に送信する。プロセッサ30は、「エアコンα」から送信されてきた通知情報に基づいて、「エアコンα」がユーザによって手動で操作されたことを認識し、更に、その操作の内容が電源をオンすることであることを認識する。つまり、プロセッサ30は、ID「1」の操作が行われたことを認識する。また、ユーザが「エアコンα」のリモコン等を用いて電源をオンする操作の様子が、カメラ16によって撮影されている場合、プロセッサ30は、その撮影によって生成された画像データを解析することで、「エアコンα」がユーザによって操作されたことを認識し、更に、その操作の内容が電源をオンすることであることを認識してもよい。
「エアコンα」の電源ボタンを押したときにユーザが発した音声の認識結果が「スイッチオン」である場合、当該音声の認識結果は、ID「1」に紐付けられている音声情報と一致する。また、そのときに測定された脳波が、ID「1」に紐付けられている脳波と一致する場合、それ以降の操作においては、プロセッサ30は、ユーザの音声と脳波との組み合わせに基づいて「エアコンα」を操作してもよいし、ユーザの脳波に基づいて「エアコンα」を操作してもよい。
機器22を操作するときにユーザが発した音声の内容には、ユーザの意図が正確に反映されていると推測される。つまり、ユーザ自身が機器22を操作するときに、ユーザはわざわざ嘘をつくことはないと考えられるため、機器22を操作するときにユーザが発した音声の内容は、ユーザの意図が正確に反映されていると想定される。例えば、ユーザが手動で電源をオンするときに、ユーザは、その操作の内容に反する発言(例えば「オフ」という発言)をすることは考えられない。従って、機器22を操作するときにユーザが発した音声の内容には、ユーザの意図が正確に反映されており、また、そのときにユーザが発した、音声以外の生体情報(例えば脳波)にも、ユーザの意図が正確に反映されていると推測される。従って、音声を用いることで、機器22に対する操作の精度を向上させることができる。
例えば、それ以降の操作においては、「エアコンα」の電源がオフのときに、ID「1」に紐付けられている脳波がユーザから測定され、ID「1」に紐付けられている音声情報が表す音声がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンする。例えば、プロセッサ30は、電源のオンを指示する制御情報を「エアコンα」に送信することで、「エアコンα」の電源をオンにする。ユーザから測定された脳波と、ID「1」に紐付けられている脳波との差異が許容範囲内であり、ユーザから測定された音声と、ID「1」に紐付けられている音声情報が表す音声との差異が許容範囲内である場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンしてもよい。機器22を操作するときに、その操作を表す音声を発することで、音声を発しない場合と比較して、脳波にその操作が反映され易いと推測される。従って、機器22を操作するときに、その操作を表す音声を発することで、音声を発しない場合と比較して、機器22に対する操作の精度を向上させることができる。
別の例として、それ以降の操作においては、「エアコンα」の電源がオフとのときに、ID「1」に紐付けられている脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンしてもよい。ユーザから測定された脳波と、ID「1」に紐付けられている脳波との差異が許容範囲内である場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンしてもよい。
「エアコンα」の電源ボタンを押したときにユーザが発した音声の認識結果と、ID「1」に紐付けられている音声情報「スイッチオン」との差異が第1許容範囲内であり、そのときに測定された脳波と、ID「1」に紐付けられている脳波との差異が第2許容範囲内である場合、それ以降の操作においては、プロセッサ30は、ユーザの音声と脳波との組み合わせに基づいて「エアコンα」の電源をオンする操作を行ってもよいし、ユーザの脳波に基づいて「エアコンα」の電源をオンする操作を行ってもよい。
例えば、「エアコンα」の電源ボタンを押したときにユーザが発した音声の認識結果が「オン」である場合、その認識結果「オン」は、ID「1」に紐付けられている音声情報「スイッチオン」とは異なる。この場合、プロセッサ30は、その認識結果「オン」と、ID「1」に紐付けられている音声情報「スイッチオン」との差異が第1許容範囲内であるか否かを判断する。プロセッサ30は、例えば、音声の認識結果である、当該音声を表す文字列「オン」と、ID「1」に紐付けられている音声情報「スイッチオン」を表す文字列「スイッチオン」とを比較し、これらの文字列の差異が第1許容範囲内であるか否かを判断する。プロセッサ30は、例えば、各文字列を解析することで各文字列が表す意味内容を認識し、それらの意味内容の差異が第1許容範囲内であるか否かを判断してもよい。プロセッサ30は、例えば、自然言語処理、形態要素解析、構文解析、及び、統計的自然言語処理等を用いることで文字列を解析してもよい。また、人工知能によって、文字列の解析や、音声の認識結果の比較等が行われてもよい。ユーザが発した音声の認識結果「オン」は、電源をオンする等の意味を有するため、ここでは一例として、プロセッサ30は、音声の認識結果「オン」と、ID「1」に紐付けられている音声情報「スイッチオン」との差異は、第1許容範囲内であると判断する。
別の例として、プロセッサ30は、ユーザが発した音声の認識結果である、当該音声の波形と、ID「1」に紐付けられている音声情報が示す波形とを比較してもよい。具体的には、プロセッサ30は、各波形から、波形の形状、ピーク、周期及び振幅等の特徴を抽出し、両波形の特徴を比較し、両波形の特徴の差異が第1許容範囲内であるか否かを判断してもよい。
また、プロセッサ30は、両波形の間の類似度を算出し、その類似度が第1閾値以上であるか否かを判断してもよい。第1閾値は、第1許容範囲に対応する閾値である。両波形の間の類似度が第1閾値以上である場合、プロセッサ30は、両波形は類似していると判断し、ユーザが発した音声の認識結果と、ID「1」に紐付けられている音声情報との差異が第1許容範囲内であると判断する。なお、波形の類似度を算出するために、公知の技術が用いられてもよい。
また、「エアコンα」の電源ボタンを押したときにユーザから測定された脳波が、ID「1」に紐付けられている脳波と異なる場合、プロセッサ30は、その測定された脳波と、ID「1」に紐付けられている脳波との差異が第2許容範囲内であるか否かを判断する。具体的には、プロセッサ30は、ユーザから測定された脳波とID「1」に紐付けられている脳波のそれぞれから、脳波の形状、ピーク、周期及び振幅等の特徴を抽出し、各波形の特徴を比較し、両波形の特徴の差異が第2許容範囲内であるか否かを判断する。
また、プロセッサ30は、両波形の間の類似度を算出し、その類似度が第2閾値以上であるか否かを判断してもよい。第2閾値は、第2許容範囲に対応する閾値である。両波形の間の類似度が第2閾値以上である場合、プロセッサ30は、両波形は類似していると判断し、ユーザから測定された脳波と、ID「1」に紐付けられている脳波との差異が第2許容範囲内であると判断する。
ユーザが発した音声の認識結果と、ID「1」に紐付けられている音声情報との差異が第1許容範囲内であり、ユーザから測定された脳波と、ID「1」に紐付けられている脳波との差異が第2許容範囲内である場合、それ以降の操作においては、プロセッサ30は、ユーザの音声と脳波との組み合わせに基づいて「エアコンα」の電源をオンする操作を行ってもよいし、ユーザの脳波に基づいて「エアコンα」の電源をオンする操作を行ってもよい。
例えば、それ以降の操作においては、「エアコンα」の電源がオフのときに、ID「1」に紐付けられている音声情報が表す音声との差異が第1許容範囲内となる音声がユーザから測定され、ID「1」に紐付けられている脳波との差異が第2許容範囲内となる脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンする。
別の例として、それ以降の操作においては、「エアコンα」の電源がオフのときに、ID「1」に紐付けられている脳波との差異が第2許容範囲内となる脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンする。
ID「1」の操作以外の他の操作についても、ID「1」についての操作と同様に、ユーザの音声の認識結果と脳波が、手動操作情報の許容範囲に含まれる場合、それ以降の操作においては、音声と脳波との組み合わせに基づいて、又は、脳波に基づいて、当該操作が行われる。
また、ユーザの音声と脳波との組み合わせに基づいて機器22が操作され、その操作の回数が閾値以上になった場合、プロセッサ30は、それ以降の操作においては、ユーザの脳波のみに基づいて機器22を操作してもよい。別の例として、ユーザの音声と脳波との組み合わせに基づく操作の成功率が閾値以上になった場合、プロセッサ30は、それ以降の操作においては、ユーザの脳波のみに基づいて機器22を操作してもよい。
このように、プロセッサ30は、機器22を操作するために用いられる情報を段階的に減らしてもよい。具体的には、第1段階においては、プロセッサ30は、ユーザによる手動の操作と、音声と、音声以外の生体情報(例えば脳波)との組み合わせに基づいて、機器22を操作する。第2段階においては、プロセッサ30は、ユーザの音声と音声以外の生体情報との組み合わせに基づいて、機器22を操作する。第3段階においては、プロセッサ30は、音声以外のユーザの生体情報に基づいて、機器22を操作する。第1段階での操作の成功率が閾値以上になった場合、第2段階での操作が行われ、第2段階での操作の成功率が閾値以上になった場合、第3段階での操作が行われてもよい。
なお、ユーザが機器22を手動で操作するときに、ユーザは、操作される機器22を識別するための機器情報を表す音声を発してもよい。その音声はマイク14によって測定され、プロセッサ30は、当該音声を解析することで、操作される機器22を特定する。そして、プロセッサ30は、管理テーブルにおいて、操作される機器22を検索し、その機器22についての操作を制御する。例えば、ユーザが、「エアコンα」の電源がオフのときに「エアコンα」の電源ボタンを押しながら「エアコンα」を表す音声を発した場合、プロセッサ30は、その音声に基づいて、操作される機器22が、「エアコンα」であることを特定する。「エアコンα」の電源がオフのときに「エアコンα」の電源ボタンを押すという操作は、ID「1」に紐付けられている操作であるため、プロセッサ30は、ユーザの音声の認識結果と脳波が、ID「1」に紐付けられている手動操作情報の許容範囲に含まれるか否かを判断する。
また、ユーザが脳波に基づいて機器22を操作するときに、ユーザは、操作される機器22を識別するための機器情報を表す音声を発してもよい。プロセッサ30は、当該音声を解析することで、脳波によって操作される機器22を特定する。そして、プロセッサ30は、管理テーブルにおいて、脳波によって操作される機器22を検索し、その機器22に紐付けられている脳波と、ユーザから測定された脳波とを比較する。両脳波の差異が第2許容範囲内である場合、プロセッサ30は、その機器22に紐付けられている脳波に紐付けられている制御情報に従って、当該機器22を操作する。例えば、ユーザが、脳波によって「エアコンα」をオンにするときに、「エアコンα」を表す音声を発した場合、プロセッサ30は、その音声に基づいて、脳波によって測定される機器22が、「エアコンα」であることを特定する。図3に示す例では、「エアコンα」についての操作は、ID「1」に紐付けられた操作と、ID「2」に紐付けられた操作が、管理テーブルに登録されている。プロセッサ30は、ID「1」及びID「2」のそれぞれに紐付けられている脳波と、ユーザから測定された脳波とを比較する。ID「1」に紐付けられている脳波と、ユーザから測定された脳波との差異が、第2許容範囲内であり、ID「2」に紐付けられている脳波と、ユーザから測定された脳波との差異が、第2許容範囲内ではない場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」を操作する。この場合、プロセッサ30は、「エアコンα」の電源をオンにする。一方、ID「1」に紐付けられている脳波と、ユーザから測定された脳波との差異が、第2許容範囲内ではなく、ID「2」に紐付けられている脳波と、ユーザから測定された脳波との差異が、第2許容範囲内である場合、プロセッサ30は、ID「2」に紐付けられている制御情報に従って、「エアコンα」を操作する。この場合、プロセッサ30は、「エアコンα」の電源をオフにする。
また、ユーザ毎に、手動操作情報と、音声情報と、脳波と、制御情報とが紐付けられて管理テーブルに登録されてもよい。具体的には、個々のユーザの具体的な脳波が管理テーブルに登録されてもよい。
図4には、個々のユーザの具体的な脳波が登録されている管理テーブルが示されている。図4に示されている管理テーブルにおいては、機器22の操作毎に、IDと、機器情報と、手動操作情報と、音声情報と、音声以外の生体情報の一例である脳波と、制御情報と、ユーザ情報とが紐付けられている。同じ操作に関して、各ユーザの脳波が、管理テーブルに登録されている。ユーザ情報は、ユーザを識別するための情報(例えば、ユーザ名やユーザID等)である。なお、ユーザ情報は、管理テーブルに登録されていなくてもよい。
例えば、ユーザAが、「エアコンα」の電源がオフのときに「エアコンα」の電源ボタンを押しながら、「スイッチオン」を表す音声を発したものとする。このようにユーザAによって「エアコンα」が操作されると、「エアコンα」は、自装置がユーザによって手動で操作されたことを示す情報と、当該操作の内容(例えば、電源がオフのときに電源ボタンを押して電源をオンする操作)を示す情報と、自装置である「エアコンα」を識別するための情報とを含む通知情報を、情報処理装置10に送信する。プロセッサ30は、「エアコンα」から送信されてきた通知情報に基づいて、「エアコンα」がユーザによって操作されたことを認識し、更に、その操作の内容が、電源がオフのときに電源ボタンを押して電源をオンすることであることを認識する。また、ユーザAが「エアコンα」のリモコン等を用いて電源をオンする操作の様子が、カメラ16によって撮影されている場合、プロセッサ30は、その撮影によって生成された画像データを解析することで、「エアコンα」がユーザによって操作されたことを認識し、更に、その操作の内容が、電源がオフのときに電源ボタンを押して電源をオンすることであることを認識してもよい。
「スイッチオン」を表す音声はマイク14によって測定される。また、ユーザAが当該音声を発しながら「エアコンα」の電源ボタンを押したときにユーザAから発せられた脳波が、生体情報測定装置12によって測定される。
プロセッサ30は、ユーザによって操作された機器22である「エアコンα」を識別するための機器情報と、電源がオフのときに電源ボタンを押すことを示す手動操作情報と、マイク14によって測定された音声「スイッチオン」を示す音声情報と、生体情報測定装置12によって測定された脳波と、電源をオンする操作を示す制御情報とを紐付けて、管理テーブルに登録する。その登録される脳波は、ユーザAから測定された脳波である。また、音声情報は、音声を表す音声データそのものであってもよいし、当該音声の認識結果を示す情報であってもよい。音声データは、ユーザAの音声を表すデータである。図4に示す例では、これらの情報は、ID「1」に紐付けられて管理テーブルに登録される。ID「1」に紐付けられている脳波は、ユーザAから測定された脳波である。
各情報が管理テーブルに登録された後、プロセッサ30は、ユーザの音声と脳波との組み合わせに基づいて、又は、ユーザの脳波に基づいて、「エアコンα」を操作する。具体的には、「エアコンα」の電源がオフのときに、ID「1」に紐付けられている音声情報が表す音声がユーザから測定され、ID「1」に紐付けられている脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンする。「エアコンα」の電源がオフのときに、ID「1」に紐付けられている音声情報が表す音声との差異が第1許容範囲内となる音声がユーザから測定され、ID「1」に紐付けられている脳波との差異が第2許容範囲内となる脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンしてもよい。「エアコンα」の電源がオフのときに、ID「1」に紐付けられた脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンしてもよい。「エアコンα」の電源がオフのときに、ID「1」に紐付けられた脳波との差異が第2許容範囲内となる脳波がユーザから測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンしてもよい。なお、ユーザAを識別するためのユーザ情報がID「1」に紐付けられていない場合、ユーザA以外の他のユーザから、ID「1」に紐付けられている音声情報が表す音声と脳波とが測定されたり、ID「1」に紐付けられている脳波が測定されたりすると、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンする。
ユーザAを識別するためのユーザ情報が、ID「1」に紐付けられて管理テーブルに登録されてもよい。例えば、ID「1」に紐付けられている各情報が管理テーブルに登録された後に、ユーザが管理テーブルを編集することで、ID「1」にユーザ情報を紐付けてもよい。別の例として、ユーザAのみが情報処理装置10にログインしている状態で、音声と脳波が測定された場合、プロセッサ30は、測定された音声と脳波は、ユーザAの音声と脳波であると認識し、ログインしているユーザAを識別するためのユーザ情報をID「1」に紐付けてもよい。また、ユーザ情報の登録対象のユーザが「ユーザA」であることが情報処理装置10に設定されている場合、プロセッサ30は、測定された音声と脳波は、ユーザAの音声と脳波であると認識し、登録対象のユーザAを識別するためのユーザ情報をID「1」に紐付けてもよい。ユーザ情報の登録対象のユーザは、例えば、ユーザによって情報処理装置10に設定される。
ユーザAを識別するためのユーザ情報が、ID「1」に紐付けられて管理テーブルに登録されている場合において、ユーザAから、ID「1」に紐付けられている音声情報が表す音声と脳波との組み合わせが測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンにする。この処理は、上述した第2段階の処理に該当する。
例えば、ユーザAのみが情報処理装置10にログインしている状態で、ユーザAから、ID「1」に紐付けられている音声情報が表す音声と脳波との組み合わせが測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンにする。具体的には、ユーザAのみが情報処理装置10にログインしているときに、マイク14によって音声が測定され、生体情報測定装置12によって脳波が測定されると、プロセッサ30は、ログインしているユーザAを識別するためのユーザ情報に紐付けられて管理テーブルに登録されている音声情報と脳波との組み合わせを検索する。図4に示す例では、ID「1」に紐付けられている音声情報と脳波との組み合わせと、ID「3」に紐付けられている音声情報と脳波との組み合わせが、ユーザAの音声情報と脳波との組み合わせとして管理テーブルに登録されているため、これらの組み合わせが検索される。測定された音声と脳波との組み合わせが、ID「1」に紐付けられている音声情報が表す音声と脳波との組み合わせと一致する場合、又は、測定された音声とID「1」に紐付けられている音声情報が表す音声との差異が第1許容範囲内であり、測定された脳波とID「1」に紐付けられている脳波との差異が第2許容範囲内である場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンにする。なお、測定された音声と脳波との組み合わせが、ID「3」に紐付けられている音声情報が表す音声と脳波との組み合わせと一致する場合、又は、測定された音声とID「3」に紐付けられている音声情報が表す音声との差異が第1許容範囲内であり、測定された脳波とID「3」に紐付けられた脳波との差異が第2許容範囲内である場合、プロセッサ30は、ID「3」に紐付けられている制御情報に従って、「エアコンα」の電源をオフにする。
別の例として、機器22を操作するユーザが「ユーザA」であることが情報処理装置10に設定されている状態で、ユーザAから、ID「1」に紐付けられている音声情報が表す音声と脳波との組み合わせが測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンにしてもよい。具体的には、機器22を操作するユーザが「ユーザA」であることが情報処理装置10に設定されている状態で、マイク14によって音声が測定され、生体情報測定装置12によって脳波が測定されると、プロセッサ30は、機器22を操作するユーザであるユーザAを識別するためのユーザ情報に紐付けられて管理テーブルに登録されている音声情報と脳波との組み合わせを検索する。測定された音声と脳波との組み合わせが、ID「1」に紐付けられている音声情報が表す音声と脳波との組み合わせと一致する場合、又は、測定された音声とID「1」に紐付けられている音声情報が表す音声との差異が第1許容範囲内であり、測定された脳波とID「1」に紐付けられている脳波との差異が第2許容範囲内である場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンにする。機器22を操作するユーザは、例えば、ユーザによって情報処理装置10に設定される。
別の例として、ユーザAを識別するためのユーザ情報が、ID「1」に紐付けられて管理テーブルに登録されている場合において、ユーザAから、ID「1」に紐付けられている脳波が測定された場合、又は、ID「1」に紐付けられている脳波との差異が第2許容範囲内となる脳波が測定された場合、プロセッサ30は、ID「1」に紐付けられている制御情報に従って、「エアコンα」の電源をオンにしてもよい。この処理は、上述した第3段階の処理に該当する。
ユーザA以外の他のユーザについても、ユーザAと同様に、各情報が管理テーブルに登録される。例えば、ID「2」に紐付けられている各情報は、ユーザBが「エアコンα」の電源をオンにしたときの操作に関する情報である。ID「3」に紐付けられている各情報は、ユーザAが「エアコンα」の電源をオフにしたときの操作に関する情報である。
プロセッサ30は、ユーザ毎に音声を判別し、音声と音声以外の生体情報との組み合わせに基づいて、又は、音声以外の生体情報に基づいて、機器22を操作してもよい。プロセッサ30は、例えば、マイク14によって測定された音声に基づいて、当該音声を発したユーザを判別する。例えば、ユーザ毎に、ユーザの音声を表す音声データと、当該ユーザを識別するためのユーザ情報とが紐付けられて、記憶装置28やサーバ等に予め記憶されている。マイク14によって音声が測定されると、プロセッサ30は、測定された音声を表す音声データに紐付けられているユーザ識別情報を検索し、当該音声を発したユーザを特定する。そして、プロセッサ30は、図4に示されている管理テーブルにおいて、当該音声を発したユーザのユーザ情報が紐付けられている操作を特定し、当該ユーザの音声を表す音声情報と脳波との組み合わせに基づいて、又は、当該ユーザの脳波に基づいて、機器22を操作する。
ユーザが睡眠中は、プロセッサ30は、生体情報による機器22の操作を中止してもよい。プロセッサ30は、例えば公知の技術を用いることで、ユーザから測定される生体情報に基づいて、当該ユーザが睡眠中か否かを判断する。脳波の種類や強度や推移等に基づいて、人の睡眠状態を把握することができることが知られている。睡眠状態は、例えば、レム睡眠、ノンレム睡眠及び覚醒に分類される。もちろん、この分類は一例に過ぎず、別の分類が用いられてもよい。ここでは一例として、ユーザの睡眠状態が、レム睡眠又はノンレム睡眠である場合、ユーザの状態は眠っている状態であり、ユーザの睡眠状態が、覚醒である場合、ユーザの状態は眠っていない状態であるものとする。プロセッサ30は、公知技術を用いることで、測定された脳波の種類や強度や推移等に基づいて、ユーザの睡眠状態を判断する。
入眠するときの脳波は、β波、α波、θ波、δ波の順番で発生することが知られている。ユーザが体を横にして目を閉じると、β波が発生している状態から、体がリラックスしてきてα波が発生する。その段階から、意識が薄らいでくるとθ波が発生し、睡眠が深くなるとδ波が発生する。プロセッサ30は、このようにして発生する脳波を分析することで、ユーザの睡眠状態を判断する。
生体情報測定装置12の一例である加速度センサがユーザに装着され、ユーザの加速度、つまり動きが測定されてもよい。プロセッサ30は、加速度の大きさや変化量に基づいて、ユーザの睡眠状態を認識してもよい。また、プロセッサ30は、ユーザの脈拍数や血圧等に基づいて、ユーザの睡眠状態を把握してもよい。
ユーザの睡眠中は、プロセッサ30は、当該ユーザの音声情報と生体情報とを紐付ける処理を中止してもよい。例えば、睡眠中のユーザから音声や脳波が測定されても、プロセッサ30は、音声情報と脳波とを紐付けず、それらを管理テーブルに登録しない。
複数のユーザの音声、又は、予め定められた数以上のユーザの音声がマイク14によって測定された場合、プロセッサ30は、生体情報による機器22の操作を中止してもよいし、生体情報によるアプリケーションの操作のみを許可してもよいし、音声情報と生体情報との紐付けを中止してもよい。
ユーザの音声と音声以外の生体情報(例えば脳波)との組み合わせに基づいて機器22を操作する場合において、認証されたユーザ以外の音声がマイク14によって測定された場合、プロセッサ30は、音声と音声以外の生体情報との組み合わせに基づく機器22の操作、及び、音声以外の生体情報に基づく機器22の操作を中止してもよい。認証されたユーザは、例えば、情報処理装置10、又は、認証サーバ等の他の装置によって、認証されたユーザである。例えば、情報処理装置10にログインしているユーザや、生体情報を用いて機器22を操作することを許可されたユーザ等が、認証されたユーザの一例に相当する。
ユーザの音声と音声以外の生体情報との組み合わせに基づいて、又は、音声以外の生体情報に基づいて、機器22が操作される場合、プロセッサ30は、機器22が操作される前に、操作の内容をユーザに通知してもよい。ユーザの同意が得られた場合、プロセッサ30は、機器を操作してもよい。例えば、プロセッサ30は、操作の内容を音声によってユーザに通知してもよいし、UI26の表示部に操作の内容を示す情報を表示させてもよい。また、ユーザの同意は、ユーザの生体情報によって与えられてもよい。例えば、同意を表す脳波が生体情報測定装置12によって測定された場合、プロセッサ30は、機器22を操作する。
操作対象の機器22が操作範囲内に存在しない場合、プロセッサ30は、警告を出力してもよい。プロセッサ30は、例えば、警告を示す情報をUI26の表示部に表示させてもよいし、警告音を発してもよい。操作範囲は、例えば、予め定められた位置を基準として、その位置から予め定められた距離以内の範囲である。予め定められた位置は、ユーザの位置であってもよいし、情報処理装置10が設置されている位置であってもよいし、ユーザによって指定された任意の位置であってもよい。例えば、ユーザが携帯する端末装置(例えばスマートフォン等)の位置をGPS(Global Positioning System)等によって特定することで、当該ユーザの位置が特定される。情報処理装置10の位置は、情報処理装置10に設定されていてもよいし、GPS等によって特定されてもよい。
プロセッサ30は、複数の機器22のそれぞれに対する操作の指示を表す生体情報を受け付けた場合、生体情報に対応する制御情報を各機器22に送信することで、各機器22を操作してもよい。
以下、変形例について説明する。変形例では、プロセッサ30は、外部からの刺激を受けたユーザから発生した生体情報に基づいて、機器22を操作する。プロセッサ30は、環境情報測定装置によって測定された環境情報に基づいて、外部からの刺激を検出し、ユーザが外部から刺激を受けたか否かを判定する。また、プロセッサ30は、ユーザから測定された生体情報が、外部からの刺激を受けた当該ユーザから発生した生体情報であるか否かを判定する。ユーザから測定された生体情報が、外部からの刺激を受けた当該ユーザから発生した生体情報である場合、プロセッサ30は、当該生体情報に基づいて機器22を操作する。環境情報測定装置は、例えば、マイク14、カメラ16、臭気センサ18、及び、温度センサ20等である。これら以外のセンサ等が環境情報測定装置として用いられてもよい。プロセッサ30は、例えば、マイク14によって測定された音データ、カメラ16によって撮影された画像データ、臭気センサ18によって測定された臭気データ、及び、温度センサ20によって測定された温度データの中の少なくとも1つのデータに基づいて、ユーザが外部から刺激を受けたか否かを判定する。プロセッサ30は、これら以外のデータに基づいて、ユーザが外部から刺激を受けたか否かを判定してもよい。
例えば、特定の環境情報が測定され、その特定の環境情報が測定された後にユーザから測定された生体情報は、外部からの刺激を受けた当該ユーザから発生した生体情報であると推測される。この場合、特定の環境情報が表す環境が、外部からの刺激の一例に相当する。例えば、特定の環境情報が測定された時点から予め定められた時間が経過するまでの間にユーザから測定された生体情報は、外部からの刺激を受けた当該ユーザから発生した生体情報であると推測される。特定の環境情報が表す環境は、例えば、機器22の操作に関する環境である。例えば、機器22の操作に関する特定の環境情報が測定された場合、プロセッサ30は、その特定の環境情報が測定された後にユーザから測定された生体情報に基づいて、機器22を操作する。
以下、変形例について詳しく説明する。
(変形例1)
変形例1では、マイク14によって測定された特定の音声が、外部からの刺激の一例に相当し、当該特定の音声を表す音声データが、特定の環境情報の一例に相当する。また、生体情報は一例として脳波である。特定の音声は、例えば、機器22の操作に関する音声(例えば会話等)である。特定の音声を表す音声データが測定された後にユーザから測定された生体情報は、外部からの刺激である特定の音声を受けた当該ユーザから発生した生体情報であると推測される。この場合、プロセッサ30は、特定の音声を受けた当該ユーザから発生した生体情報に基づいて、機器22を操作する。つまり、プロセッサ30は、特定の音声を聞いて当該ユーザから発生した生体情報に基づいて、機器22を操作する。例えば、特定の音声が測定された時点から予め定められた時間が経過するまでの間にユーザから測定された生体情報は、外部からの刺激である特定の音声を聞いた当該ユーザから発生した生体情報であると推測される。
例えば、生体情報である脳波が測定されるユーザ(例えばユーザA)の会話相手の音声が、外部からの刺激の一例に相当し、その音声を表す音声データが、特定の環境情報の一例に相当する。
脳波が測定されるユーザAとその会話相手とが会話している場合、プロセッサ30は、その会話相手の音声を聞いてユーザAから測定された脳波を受け付け、当該脳波に紐付けられている操作を特定する。例えば、プロセッサ30は、図4に示されている管理テーブルを参照することで、ユーザAから測定された当該脳波に紐付けられている操作を特定する。プロセッサ30は、その操作の内容を表す画像をUI26の表示部に表示させてもよいし、その操作の内容を表す音声をスピーカから発ししてもよい。その操作を実行することの合意がユーザAから得られた場合、プロセッサ30は、その操作を実行するための制御情報を機器22に送信することで、当該機器22を操作する。
例えば、マイク14によって、ユーザAと会話相手の音声を表す音声データが測定され、プロセッサ30は、マイク14によって測定された音声データを解析することで、ユーザAと会話相手との間の会話の内容を認識する。また、カメラ16によってユーザAと会話相手が撮影され、プロセッサ30は、その撮影によって生成された画像データに基づいて、ユーザAと会話相手を認識してもよい。プロセッサ30は、機器22の操作に関する、会話相手の発言内容を認識し、その発言を聞いてユーザAから測定された脳波を受け付け、その脳波に対応する操作を制御するための制御情報を機器22に送信する。機器22の操作に関する、会話相手の発言内容が、外部からの刺激の一例に相当し、その発言内容を表す音声データが、特定の環境情報の一例に相当する。その会話相手の発言の後に測定された脳波(例えば、その会話相手が発言した時点から予め定められた時間が経過するまでの間に測定された脳波)が、その会話相手の発言を聞いてユーザAから発せられた脳波、つまり、外部からの刺激を受けたユーザAから発せられた脳波であると推測される。
具体例を挙げて説明する。会話相手が「テレビで○○を見たい?」と発言した場合、その発言内容がマイク14によって測定され、プロセッサ30は、マイク14によって測定された音声を解析することで、その発言内容を認識する。その発言内容は、機器22であるテレビの操作に関する発言であり、外部からの刺激の一例に相当し、その発言内容を表す音声データは、特定の環境情報の一例に相当する。プロセッサ30は、その発言を受けてユーザAから測定された脳波を受け付ける。例えば、会話相手が「テレビで○○を見たい?」と発言した時点から予め定められた時間が経過するまでの間に測定された脳波が、その会話相手の発言を聞いたユーザAから発せられた脳波であると推測される。その脳波が、同意を表す脳波である場合、プロセッサ30は、「テレビをオンしますか?」といった内容のメッセージを出力する。例えば、プロセッサ30は、そのメッセージの音声をスピーカから発してもよいし、そのメッセージをUI26の表示部に表示させてもよい。プロセッサ30は、そのメッセージが出力された後にユーザAから測定された脳波を受け付ける。その脳波が、同意を表す脳波である場合、プロセッサ30は、機器22であるテレビをオンする操作を実行するための制御情報を当該テレビに送信することで、当該テレビの電源をオンする。
(実施例2)
変形例2では、臭気センサ18によって測定された特定の匂いが、外部からの刺激の一例に相当し、当該特定の匂いを表す臭気データが、特定の環境情報の一例に相当する。例えば、臭気センサ18によって、ユーザの周囲の匂いが測定される。また、生体情報は一例として脳波である。特定の匂いは、例えば、機器22の操作に関する匂いである。特定の匂いを表す臭気データが測定された後にユーザから測定された生体情報は、外部からの刺激である特定の匂いを受けて当該ユーザから発生した生体情報であると推測される。この場合、プロセッサ30は、特定の匂いを受けて当該ユーザから発生した生体情報に基づいて、機器22を操作する。つまり、プロセッサ30は、特定の匂いを嗅いで当該ユーザから発生した生体情報に基づいて、機器22を操作する。例えば、特定の匂いが測定された時点から予め定められた時間が経過するまでの間にユーザから測定された生体情報は、外部からの刺激である特定の匂いを嗅いだ当該ユーザから発生した生体情報であると推測される。
特定の匂いが測定された場合、プロセッサ30は、その特定の匂いを嗅いたユーザから測定された脳波を受け付け、当該脳波に紐付けられている操作を特定する。例えば、プロセッサ30は、図4に示されている管理テーブルを参照することで、ユーザから測定された当該脳波に紐付けられている操作を測定する。プロセッサ30は、その操作の内容を表す画像をUI26の表示部に表示させてもよいし、その操作の内容を表す音声をスピーカから発してもよい。その操作を実行することの合意がユーザから得られた場合、プロセッサ30は、その操作を実行するための制御情報を機器22に送信することで、当該機器22を操作する。機器22の操作に関する特定の匂いが測定された後に測定された脳波(例えば、特定の匂いが測定された時点から予め定められた時間が経過するまでの間に測定された脳波)が、その特定の匂いを嗅いだユーザから発せられた脳波、つまり、外部からの刺激を受けたユーザから発せられた脳波であると推測される。
具体例を挙げて説明する。料理をした後、部屋に調理時の匂いが残り、臭気センサ18によって、その匂いを表す臭気データが測定される。その匂いは、機器22である空気清浄機の操作に関する匂いであり、外部からの刺激の一例に相当し、その匂いを表す臭気データは、特定の環境情報の一例に相当する。プロセッサ30は、その匂いを嗅いだユーザから測定された脳波を受け付ける。例えば、料理の後の匂いが測定された時点から予め定められた時間が経過するまでの間に測定された、「匂いが不快」を表す脳波が、その匂いを嗅いだユーザから発せられた脳波であると推測される。この場合、プロセッサ30は、「空気清浄機をオンしますか?」といった内容のメッセージを出力する。例えば、プロセッサ30は、そのメッセージの音声をスピーカから発してもよいし、そのメッセージをUI26の表示部に表示させてもよい。プロセッサ30は、そのメッセージが出力された後にユーザから測定された脳波を受け付ける。その脳波が、同意を表す脳波である場合、プロセッサ30は、機器22である空気清浄機をオンする操作を実行するための制御情報を当該空気清浄機に送信することで、当該空気清浄機の電源をオンする。なお、空気清浄機と共に、又は、空気清浄機の代わりに、香りを拡散させるためのアロマディフューザーが用いられてもよい。
(変形例3)
変形例3では、温度センサ20によって測定された、特定の温度範囲に含まれる温度が、外部からの刺激の一例に相当し、当該特定の温度範囲に含まれる温度を表す温度データが、特定の環境情報の一例に相当する。例えば、温度センサ20によって、ユーザの周囲の温度が測定される。また、生体情報は一例として脳波である。例えば、特定の温度範囲に含まれる温度は、機器22の操作に関する温度である。特定の温度範囲に含まれる温度を表す温度データが測定された後にユーザから測定された生体情報は、外部からの刺激である温度を受けて当該ユーザから発生した生体情報であると推測される。この場合、プロセッサ30は、特定の温度範囲に含まれる温度を受けた当該ユーザから発生した生体情報に基づいて、機器22を操作する。つまり、プロセッサ30は、特定の温度範囲に含まれる温度を感じた当該ユーザから発生した生体情報に基づいて、機器22を操作する。例えば、特定の温度範囲に含まれる温度が測定された時点から予め定められた時間が経過するまでの間にユーザから測定された生体情報は、外部からの刺激である特定の温度範囲に含まれる温度を感じた当該ユーザから発生した生体情報であると推測される。
特定の温度範囲に含まれる温度が測定された場合、プロセッサ30は、その特定の温度範囲に含まれる温度を感じたユーザから測定された脳波を受け付け、当該脳波に紐付けられている操作を特定する。例えば、プロセッサ30は、図4に示されている管理テーブルを参照することで、ユーザから測定された当該脳波に紐付けられている操作を測定する。プロセッサ30は、その操作の内容を表す画像をUI26の表示部に表示させてもよいし、その操作の内容を表す音声をスピーカから発してもよい。その操作を実行することの合意がユーザから得られた場合、プロセッサ30は、その操作を実行するための制御情報を機器22に送信することで、当該機器22を操作する。機器22の操作に関する温度が測定された後に測定された脳波(例えば、特定の温度範囲に含まれる温度が測定された時点から予め定められた時間が経過するまでの間に測定された脳波)が、その温度を感じたユーザから発せられた脳波、つまり、外部からの刺激を受けたユーザから発せられた脳波であると推測される。
具体例を挙げて説明する。ユーザが帰宅したときに部屋が暑く、部屋に設置された温度センサ20によって、予め定められた閾値以上の温度が測定されたものとする。予め定められた閾値以上の温度は、特定の温度範囲に含まれる温度であり、ここでは一例として、一般的に人が暑さを感じると推測される温度である。特定の温度範囲に含まれる温度は、機器22であるエアコンの操作に関する温度であり、外部からの刺激の一例に相当し、その温度を表す温度データは、特定の環境情報の一例に相当する。プロセッサ30は、その温度を感じたユーザから測定された脳波を受け付ける。例えば、特定の温度範囲に含まれる温度が測定された時点から予め定められた時間が経過するまでの間に測定された、「暑くて不快」を表す脳波は、その温度を感じたユーザから発せられた脳波であると推測される。この場合、プロセッサ30は、「エアコンをオンにしますか?」といった内容のメッセージを出力する。例えば、プロセッサ30は、そのメッセージの音声をスピーカから発してもよいし、そのメッセージをUI26の表示部に表示させてもよい。プロセッサ30は、そのメッセージが出力された後にユーザから測定された脳波を受け付ける。その脳波が、同意を表す脳波である場合、プロセッサ30は、機器22であるエアコンをオンする操作を実行するための制御情報を当該エアコンに送信することで、当該エアコンの電源をオンする。
(変形例4)
変形例4では、生体情報が測定されるユーザが目視した特定の状況が、外部からの刺激の一例に相当し、当該特定の状況を表す画像データが、特定の環境情報の一例に相当する。例えば、カメラ16によって、ユーザとその周囲が撮影される。また、生体情報は一例として脳波である。例えば、特定の状況は、機器22の操作に関する状況である。特定の状況を表す画像データが測定された後にユーザから測定された生体情報は、外部からの刺激である特定の状況を受けた当該ユーザから発生した生体情報であると推測される。この場合、プロセッサ30は、特定の状況を受けた当該ユーザから発生した生体情報に基づいて、機器22を操作する。つまり、プロセッサ30は、特定の状況を目視した当該ユーザから発生した生体情報に基づいて、機器22を操作する。例えば、特定の状況を表す画像データが撮影された時点から予め定められた時間が経過するまでの間にユーザから測定された生体情報は、外部からの刺激である特定の状況を目視した当該ユーザから発生した生体情報であると推測される。
例えば、プロセッサ30は、ユーザとその周囲が表されている画像データを解析することで、ユーザが見ている方向を特定し、ユーザが目視している状況を認識する。
特定の状況を表す画像データが撮影された場合、プロセッサ30は、その特定の状況を目視したユーザから測定された脳波を受け付け、当該脳波に紐付けられている操作を特定する。例えば、プロセッサ30は、図4に示されている管理テーブルを参照することで、ユーザから測定された当該脳波に紐付けられている操作を測定する。プロセッサ30は、その操作の内容を表す画像をUI26の表示部に表示させてもよいし、その操作の内容を表す音声をスピーカから発してもよい。その操作を実行することの合意がユーザから得られた場合、プロセッサ30は、その操作を実行するための制御情報を機器22に送信することで、当該機器22を操作する。機器22の操作に関する特定の状況を表す画像データが撮影された後に測定された脳波(例えば、特定の状況を表す画像データが撮影された時点から予め定められた時間が経過するまでの間に測定された脳波)が、その特定の状況を目視したユーザから発せられた脳波、つまり、外部からの刺激を受けたユーザから発せられた脳波であると推測される。
具体例を挙げて説明する。ユーザが、床に落ちている綿埃を見つけ、ユーザがその状況を見ている様子がカメラ16によって撮影されて、その様子を表す画像データが生成されたものとする。床に綿埃が落ちている状況は、機器22であるロボット掃除機の操作に関する状況であり、外部からの刺激の一例に相当し、その状況を表す画像データは、特定の環境情報の一例に相当する。プロセッサ30は、その状況を見たユーザから測定された脳波を受け付ける。例えば、床に落ちている綿埃をユーザが見ている様子を表す画像データが撮影された時点から予め定められた時間が経過するまでの間に測定された、「埃が不快」を表す脳波は、その状況を見たユーザから発せられた脳波であると推測される。この場合、プロセッサ30は、「ロボット掃除機をオンにしますか?」といった内容のメッセージを出力する。例えば、プロセッサ30は、そのメッセージの音声をスピーカから発してもよいし、そのメッセージをUI26の表示部に表示させてもよい。プロセッサ30は、そのメッセージが出力された後にユーザから測定された脳波を受け付ける。その脳波が、同意を表す脳波である場合、プロセッサ30は、機器22であるロボット掃除機をオンする操作を実行するための制御情報を当該ロボット掃除機に送信することで、当該ロボット掃除機の電源をオンする。
上記各実施形態において、プロセッサとは広義的なプロセッサを指し、汎用的なプロセッサ(例えばCPU: Central Processing Unit、等)や、専用のプロセッサ(例えばGPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。また上記各実施形態におけるプロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。
10 情報処理装置、12 生体情報測定装置、14 マイク、22 機器、30 プロセッサ。

Claims (12)

  1. プロセッサを有し、
    前記プロセッサは、
    機器に対してユーザが手動で操作したときに発せられ前記ユーザの音声の認識結果を示す情報、及び、前記ユーザの音声以外の生体情報が、前記機器に対する手動の操作を示す手動操作情報の許容範囲に含まれる場合、それ以降の操作においては、生体情報に基づいて前記機器を操作
    前記機器に対する手動の操作を示す手動操作情報と、前記機器の操作を音声で表す音声情報と、前記音声が発せられたときの前記ユーザの音声以外の生体情報とが予め紐付けられて管理情報に登録されており、
    前記機器に対して前記ユーザが手動で操作するときに測定された前記ユーザの音声の認識結果を示す情報と、前記管理情報に登録されている音声情報との差異が第1許容範囲内である場合に操作し、
    前記機器に対して前記ユーザが手動で操作したときに測定された前記ユーザの音声以外の生体情報と、前記管理情報に登録されている生体情報との差異が第2許容範囲内である場合、生体情報に基づいて前記機器を操作する、
    情報処理装置。
  2. ユーザ毎に、手動操作情報と、音声情報と、生体情報とが紐付けられており、
    前記プロセッサは、ユーザ毎に音声を判別して、生体情報に基づいて前記機器を操作する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記ユーザの睡眠中は、音声情報と生体情報とを紐付ける処理を中止する、
    ことを特徴とする請求項1に記載の情報処理装置。
  4. 前記プロセッサは、前記ユーザの睡眠中は、生体情報による操作を中止する、
    ことを特徴とする請求項1から請求項のいずれか一項に記載の情報処理装置。
  5. 予め定められた数以上のユーザの音声が測定された場合、前記プロセッサは、生体情報による操作を中止する、
    ことを特徴とする請求項1から請求項のいずれか一項に記載の情報処理装置。
  6. 前記プロセッサは、外部からの刺激を受けた前記ユーザから発生した前記生体情報に基づいて前記機器を操作する、
    ことを特徴とする請求項1から請求項のいずれか一項に記載の情報処理装置。
  7. 前記外部からの刺激は、前記ユーザの会話相手の音声である、
    ことを特徴とする請求項に記載の情報処理装置。
  8. 前記外部からの刺激は、匂いである、
    ことを特徴とする請求項に記載の情報処理装置。
  9. 前記外部からの刺激は、温度である、
    ことを特徴とする請求項に記載の情報処理装置。
  10. 前記外部からの刺激は、前記ユーザが目視した状況である、
    ことを特徴とする請求項に記載の情報処理装置。
  11. 前記生体情報は脳波である、
    ことを特徴とする請求項1から請求項10のいずれか一項に記載の情報処理装置。
  12. コンピュータに、
    機器に対してユーザが手動で操作したときに発せられ前記ユーザの音声の認識結果を示す情報、及び、前記ユーザの音声以外の生体情報が、前記機器に対する手動の操作を示す手動操作情報の許容範囲に含まれる場合、それ以降の操作においては、生体情報に基づいて前記機器を操作させ、
    前記機器に対する手動の操作を示す手動操作情報と、前記機器の操作を音声で表す音声情報と、前記音声が発せられたときの前記ユーザの音声以外の生体情報とが予め紐付けられて管理情報に登録されており、
    前記機器に対して前記ユーザが手動で操作するときに測定された前記ユーザの音声の認識結果を示す情報と、前記管理情報に登録されている音声情報との差異が第1許容範囲内である場合に操作させ、
    前記機器に対して前記ユーザが手動で操作したときに測定された前記ユーザの音声以外の生体情報と、前記管理情報に登録されている生体情報との差異が第2許容範囲内である場合、生体情報に基づいて前記機器を操作させる、
    プログラム。
JP2019153629A 2019-08-26 2019-08-26 情報処理装置及びプログラム Active JP7254345B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019153629A JP7254345B2 (ja) 2019-08-26 2019-08-26 情報処理装置及びプログラム
US16/746,982 US11687049B2 (en) 2019-08-26 2020-01-20 Information processing apparatus and non-transitory computer readable medium storing program
CN202010063644.0A CN112433602A (zh) 2019-08-26 2020-01-20 信息处理装置、存储介质及信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019153629A JP7254345B2 (ja) 2019-08-26 2019-08-26 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2021033676A JP2021033676A (ja) 2021-03-01
JP7254345B2 true JP7254345B2 (ja) 2023-04-10

Family

ID=74678701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019153629A Active JP7254345B2 (ja) 2019-08-26 2019-08-26 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US11687049B2 (ja)
JP (1) JP7254345B2 (ja)
CN (1) CN112433602A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029192A1 (ja) * 2022-08-03 2024-02-08 株式会社Jvcケンウッド 音声コマンド受付装置、および音声コマンド受付方法
WO2024190659A1 (ja) * 2023-03-14 2024-09-19 株式会社Jvcケンウッド 操作制御装置、操作制御方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003247847A (ja) 2002-02-22 2003-09-05 Mitsubishi Electric Corp 脳波信号を用いたナビゲーション装置及びナビゲーション制御方法
JP2007011873A (ja) 2005-07-01 2007-01-18 Toshiba Corp インタフェース装置およびインタフェース方法
JP2007135008A (ja) 2005-11-10 2007-05-31 Sony Ericsson Mobilecommunications Japan Inc 携帯端末装置
JP2010019708A (ja) 2008-07-11 2010-01-28 Hitachi Ltd 車載装置
JP2015231518A (ja) 2014-05-12 2015-12-24 株式会社東芝 超音波診断装置とそのプログラム
WO2018235191A1 (ja) 2017-06-21 2018-12-27 三菱電機株式会社 ジェスチャ操作装置及びジェスチャ操作方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59102645A (ja) * 1982-12-03 1984-06-13 Toyota Motor Corp 車両用音声認識装置
JPH0332779Y2 (ja) 1986-09-03 1991-07-11
TW201238562A (en) * 2011-03-25 2012-10-01 Univ Southern Taiwan Brain wave control system and method
JP2013042768A (ja) * 2011-08-22 2013-03-04 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
US9539118B2 (en) * 2013-03-15 2017-01-10 Neurolutions, Inc. Brain-controlled body movement assistance devices and methods
JP6340528B2 (ja) 2014-05-01 2018-06-13 公益財団法人ヒューマンサイエンス振興財団 Bmi運動補助装置
KR101585150B1 (ko) 2014-09-25 2016-01-14 서울대학교산학협력단 뇌 연결성에 기반한 멀티모드 뇌-컴퓨터 인터페이스 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003247847A (ja) 2002-02-22 2003-09-05 Mitsubishi Electric Corp 脳波信号を用いたナビゲーション装置及びナビゲーション制御方法
JP2007011873A (ja) 2005-07-01 2007-01-18 Toshiba Corp インタフェース装置およびインタフェース方法
JP2007135008A (ja) 2005-11-10 2007-05-31 Sony Ericsson Mobilecommunications Japan Inc 携帯端末装置
JP2010019708A (ja) 2008-07-11 2010-01-28 Hitachi Ltd 車載装置
JP2015231518A (ja) 2014-05-12 2015-12-24 株式会社東芝 超音波診断装置とそのプログラム
WO2018235191A1 (ja) 2017-06-21 2018-12-27 三菱電機株式会社 ジェスチャ操作装置及びジェスチャ操作方法

Also Published As

Publication number Publication date
US20210063978A1 (en) 2021-03-04
CN112433602A (zh) 2021-03-02
US11687049B2 (en) 2023-06-27
JP2021033676A (ja) 2021-03-01

Similar Documents

Publication Publication Date Title
US10224060B2 (en) Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method
US11635816B2 (en) Information processing apparatus and non-transitory computer readable medium
JP7254345B2 (ja) 情報処理装置及びプログラム
JPWO2018074224A1 (ja) 雰囲気醸成システム、雰囲気醸成方法、雰囲気醸成プログラム、及び雰囲気推定システム
JP7359437B2 (ja) 情報処理装置、プログラム、及び、方法
JP7296626B2 (ja) 情報処理装置及びプログラム
JP2023129585A (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
US20240321462A1 (en) Information processing apparatus and non-transitory computer readable medium
JP2024045281A (ja) 情報処理方法
US11755109B2 (en) Information processing apparatus and non-transitory computer readable medium storing program
US11636392B2 (en) Information processing device and non-transitory computer readable medium
US11868529B2 (en) Information processing device and non-transitory computer readable medium
JP2018186326A (ja) ロボット装置及びプログラム
JP7254346B2 (ja) 情報処理装置及びプログラム
JP7343168B2 (ja) 情報処理装置、プログラム、及び、方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210322

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210416

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7254345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150