JP6851871B2 - 意思創発装置、意思創発方法および意思創発プログラム - Google Patents

意思創発装置、意思創発方法および意思創発プログラム Download PDF

Info

Publication number
JP6851871B2
JP6851871B2 JP2017054238A JP2017054238A JP6851871B2 JP 6851871 B2 JP6851871 B2 JP 6851871B2 JP 2017054238 A JP2017054238 A JP 2017054238A JP 2017054238 A JP2017054238 A JP 2017054238A JP 6851871 B2 JP6851871 B2 JP 6851871B2
Authority
JP
Japan
Prior art keywords
state
substance
elements
emergent
emotions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017054238A
Other languages
English (en)
Other versions
JP2017188097A (ja
Inventor
光吉 俊二
俊二 光吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JAPAN MATHEMATICAL INSTITUTE INC.
Original Assignee
JAPAN MATHEMATICAL INSTITUTE INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JAPAN MATHEMATICAL INSTITUTE INC. filed Critical JAPAN MATHEMATICAL INSTITUTE INC.
Priority to PCT/JP2017/012398 priority Critical patent/WO2017170404A1/ja
Priority to CA3017450A priority patent/CA3017450C/en
Priority to EP17774941.3A priority patent/EP3438886A4/en
Priority to CN201780020406.8A priority patent/CN108885711B/zh
Priority to US16/083,324 priority patent/US10325616B2/en
Priority to KR1020187031012A priority patent/KR102437264B1/ko
Priority to RU2018138038A priority patent/RU2741934C2/ru
Priority to TW106110565A priority patent/TWI722160B/zh
Publication of JP2017188097A publication Critical patent/JP2017188097A/ja
Application granted granted Critical
Publication of JP6851871B2 publication Critical patent/JP6851871B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0024Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system for multiple sensor units attached to the patient, e.g. using a body or personal area network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/1468Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue using chemical or electrochemical methods, e.g. by polarographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、意思創発装置、意思創発方法および意思創発プログラムに関する。
従来のノイマン型計算機や人工知能、ニューラルネットワーク、ディープラーニング等の技術を用い、人間の脳判断過程で起きるダブルループやトリプルループといった反応を再現しようとする試みが行われている。
一方、ノイマン型計算機等のように、膨大な数のスイッチを用いた計算手法(すなわち、二進法)を用いることなく、人間の情動や生理等の状態を推定する技術が提案されている。例えば、特許文献1では、被験者の生理の状態を示す情報と、被験者の情動や脳等の器官の活動を示す情報とを用い、被験者における恒常性のずれ量を求め、求めたずれ量から被験者の情動や器官等の活動に作用するエネルギーを算出する。そして、特許文献1では、算出したエネルギーを用いて、被験者の情動や器官等の各々の活動を示す複数の歯車を仮想空間で回転させることで、各歯車の回転の状態から被験者の病態を推定する技術が提案されている。
特開2015−128579号公報
しかしながら、従来のノイマン型計算機等を用いる手法では、二進法での計算手段における確率と微分とでしか対応することができず、無限に計算を繰り返してしまう。このため、ノイマン型計算機等を用いる手法では、人間の脳の判断過程のように、繰り返し実行される計算(ダブルループ等の反応)を発散させることなく、計算量をメモリ等の記憶容量の範囲内に維持することが難しい。すなわち、ノイマン型計算機等を用いる手法では、人間の脳の判断過程におけるダブルループ等の反応を再現し、かつ意思や判断等を決定するタイミング(ダブルループ等の反応(繰り返し実行される計算)を収束させるタイミング)を決定することが難しい。また、ノイマン型計算機等を用いる手法では、自己の気分に応じた、あるいは状況や場面等に応じた多様な意思や判断等を決定することが難しい。これらは、人工知能のフレーム問題として知られている。
一つの側面では、本件開示の意思創発装置、意思創発方法および意思創発プログラムは、多様な意思を創発できることを目的とする。
一つの観点による意思創発装置は、少なくとも検出対象の対象者が発話した音声情報を含むデータを取得する取得部と、取得したデータを用いて対象者の感情を検出する検出部と、検出された対象者の感情に応じて取得したデータに対する重み付けの係数を決定する決定部と、データと係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出する演算部と、演算部により算出されたエネルギーの入力に応じて状態が変化する物質を含み、人間の情動および器官の各々における恒常性として物質の状態の変化を示す信号を出力する複数の素子と、複数の素子の各々から出力された信号に含まれる物質の状態の変化に応じて感情および意思を決定する創発部と、複数の素子のうち、少なくとも1つの素子における物質の状態の変化量が所定量以下の場合、または少なくとも1つの素子における物質の状態が所定の状態の場合、複数の素子における物質の状態を相転移させる制御部とを有する。
別の観点による意思創発方法は、少なくとも検出対象の対象者が発話した音声情報を含むデータを取得し、取得したデータを用いて対象者の感情を検出し、検出された感情に応じて取得したデータに対する重み付けの係数を決定し、データと係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出し、入力に応じて状態が変化する物質を含む複数の素子に対して算出されたエネルギーを入力して、人間の情動および器官の各々における恒常性として物質の状態の変化を示す信号を複数の素子の各々に出力させ、複数の素子の各々から出力された信号に含まれる物質の状態の変化に応じて感情および意思を決定し、複数の素子のうち、少なくとも1つの素子における物質の状態の変化量が所定量以下の場合、または少なくとも1つの素子における物質の状態が所定の状態の場合、複数の素子における物質の状態を相転移させる。
別の観点による意思創発プログラムは、少なくとも検出対象の対象者が発話した音声情報を含むデータを取得し、取得したデータを用いて対象者の感情を検出し、検出された感情に応じて取得したデータに対する重み付けの係数を決定し、データと係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出し、入力に応じて状態が変化する物質を含む複数の素子に対して算出されたエネルギーを入力して、人間の情動および器官の各々における恒常性として物質の状態の変化を示す信号を複数の素子の各々に出力させ、複数の素子の各々から出力された信号に含まれる物質の状態の変化に応じて感情および意思を決定し、複数の素子のうち、少なくとも1つの素子における物質の状態の変化量が所定量以下の場合、または少なくとも1つの素子における物質の状態が所定の状態の場合、複数の素子における物質の状態を相転移させる処理をコンピュータに実行させる。
本件開示の意思創発装置、意思創発方法および意思創発プログラムは、多様な意思を創発できる。
意思創発装置の一実施形態を示す図である。 人間における恒常性の連鎖の一例を模式的に示す図である。 図1に示した素子部の一例を示す図である。 図1に示した創発テーブルの一例を示す図である。 図1に示した意思創発装置における意思創発処理の一例を示す図である。
以下、図面を用いて実施形態について説明する。
図1は、意思創発装置の一実施形態を示す。
図1に示した意思創発装置100は、CPU(Central Processing Unit)等の演算処理装置と、ハードディスク装置等の記憶部80とを有するコンピュータ装置等である。意思創発装置100は、意思創発装置100に含まれる入出力インタフェース等を介して、有線または無線で計測装置1および出力装置2に接続される。
計測装置1は、例えば、少なくともマイクロホンを含み、検出対象の対象者PAが発話した音声の信号を音声情報として計測する。計測装置1は、計測した対象者PAの音声情報を含むデータを意思創発装置100に出力する。なお、計測装置1は、例えば、心拍計、心電計、血圧計、体温計、皮膚抵抗計、あるいはカメラ、MRI(Magnetic Resonance Imaging)装置等の複数の機器を含み、対象者PAの血圧や体温等の生理情報も計測する。計測装置1は、計測した対象者PAの生理情報を音声情報とともに含んだデータを意思創発装置100に出力する。また、計測装置1は、加速度センサあるいは電子ジャイロ等を有してもよい。
なお、計測装置1により計測される対象者PAの生理情報には、例えば、心拍(脈拍)数、心拍変動、血圧、体温、発汗量(皮膚抵抗、皮膚電位)、眼球の運動、瞳孔径、まばたき数を含む。また、計測される生理情報は、例えば、吐息、ホルモン、生体分子等の体内分泌物、脳波、fMRI(functional MRI)情報等が含まれる。
例えば、心拍(脈拍)数は、計測装置1に含まれる心拍計等を用いて計測され、興奮や緊張により体内のアドレナリン分泌量が増すことによって心臓の拍動が増加するという性質を有する。
心拍変動は、例えば、計測装置1に含まれる心電計を用いて計測された対象者PAの心電波形に対して、FFT(Fast Fourier Transform)等のスペクトル解析を実行することにより取得される。そして、心拍変動の低周波成分LF(例えば0.04から0.14ヘルツ)と高周波成分HF(例えば0.14から0.5ヘルツ)との量を比較することにより、対象者PAの興奮や緊張のレベルが取得できる。なお、心拍変動の低周波成分LFは、主に交感神経の活動に伴って増え、高周波成分HFは、副交感神経の活動に伴って増えるという性質を有する。
血圧は、例えば、計測装置1に含まれる血圧計を用いて計測され、興奮や緊張に伴って対象者PAの血管が収縮し、血流抵抗が増すことにより、増加するという性質を有する。
体温は、例えば、計測装置1に含まれる体温計等を用いて計測され、興奮や緊張によって心拍増加、血糖値上昇、筋肉の緊張等が生じ、体内で熱が生成されることにより上昇するという性質を有する。
発汗量(皮膚抵抗、皮膚電位)は、例えば、計測装置1に含まれる皮膚抵抗計等を用いて計測され、興奮や緊張によって発汗が促進されることにより、皮膚抵抗が下がるという性質を有する。
眼球の運動、瞳孔径およびまばたきの回数は、例えば、計測装置1の眼電位計やカメラ等を用いて計測される。そして、興奮や緊張により眼球の運動は激しくなり、瞳孔径は、興奮や緊張により瞳孔が拡大し、まばたき数は、興奮や緊張により増えるという性質を有する。
吐息は、例えば、計測装置1に含まれる呼吸計(呼吸流量計)、肺活量計あるいはマイクロホン等を用いて呼吸量や呼吸音から回数、速度、排気量等として計測され、興奮や緊張により回数、速度、排気量が上昇するという性質を有する。
ホルモンや生体分子等の体内分泌物は、例えば、計測装置1に含まれる分析装置を用いて、対象者PAから採取した唾液、血液、リンパ液、汗、消化液、または尿等を化学分析することにより計測される。また、体内分泌物は、対象者PAにおける末梢血管、消化系、筋電位、皮膚温度、血流量、または免疫系等から計測装置1により計測されてもよい。そして、体内分泌物は、興奮や緊張により、体内におけるホルモンや生体分子の分泌量または質が変化するという性質を有する。
脳波は、例えば、計測装置1に含まれる光学式、磁気式あるいは電位式等の脳活動計を用いて計測され、興奮や緊張により波形が変化するという性質を有する。
fMRI情報は、例えば、計測装置1に含まれるMRI装置により計測され、脳内の各活動部位における血流量や酸化ヘモグロビンの分布を含む。fMRI情報は、興奮や緊張により脳内の活動部位が変化するという性質を有する。例えば、情動に関する興奮や緊張は、辺縁系(扁桃体)、視床下部、小脳、脳幹、または海馬等に血流量の変化となって現れる。このような血流量の変化は、酸化ヘモグロビンの脳内分布を変化させる。
出力装置2は、例えば、有機EL(Organic Electro-Luminescence)や液晶等のディスプレイ、またはスピーカ等を含む。出力装置2は、意思創発装置100が創発した感情や意思を示すデータを受信し、受信したデータをディスプレイに表示し、あるいは受信したデータをスピーカから音声で出力する。
なお、出力装置2は、意思創発装置100の内部に設けられてもよい。また、出力装置2は、ネットワークに接続された他のロボットや他の人工知能(すなわち、他の意思創発装置100)等であってよい。また、出力装置2は、スマートフォン等の携帯通信端末や、自動車等であってもよい。
図1に示した意思創発装置100は、取得部10、検出部20、決定部30、演算部40、素子部50、創発部60、制御部70および記憶部80を有する。検出部20、決定部30、演算部40、創発部60および制御部70の機能は、意思創発装置100の演算処理装置が実行する意思創発プログラムにより実現されてもよく、ハードウェアで実現されてもよい。
取得部10は、入出力インタフェース等であり、計測装置1から対象者PAの音声情報および生理情報を含むデータを取得する。取得部10は、取得したデータを検出部20に出力する。
なお、取得部10は、計測装置1から少なくとも対象者PAの音声情報を含むデータを取得するとともに、例えば、意思創発装置100に含まれるキーボード等の入力装置を介して、対象者PAから入力された指示命令等の文字情報を取得してもよい。また、取得部10は、ネットワークインタフェースを含んでもよく、対象者PAが興味を示しそうな情報等を、ネットワークを介して対象者PAの音声情報のデータとともに取得してもよい。
検出部20は、計測装置1により取得された対象者PAのデータのうち音声情報を用いて、対象者PAの感情を検出する。例えば、検出部20は、特開2009−294647号公報に開示された技術を用いて生成され記憶部80に記憶された感情テーブルと、対象者PAの音声情報とを用いて、“怒り”、“悲しみ”、“平常”、“喜び”等の感情を検出する。検出部20は、対象者PAの感情の検出結果を決定部30に出力する。また、検出部20は、対象者PAの感情の検出結果を、取得したデータとともに記憶部80に記憶する。
なお、意思創発装置100は、例えば、感情テーブルを生成するために、複数の人それぞれに、日常会話やテレビドラマ等において発話単位で抽出した音声をランダムな順番で聞かせ、各発話単位の音声から受ける話し手の感情について、いずれの感情かを判定させる。そして、意思創発装置100は、判定の結果のうち感情が共通した発話単位の音声を抽出し、各発話単位のおける音声波形の強度、基本周波数、周波数分布や抑揚等のパラメータの値を算出する。
意思創発装置100は、音声認識のような音声から言語情報を取得する手段を用いて、感情や心理属性に相当する語彙や構文の情報等からくる感情や心理属性に相当する情報を算出する。意思創発装置100は、各音声がそれぞれの感情状態であると判定された原因を、各音声における複数のパラメータの各々がどのような値の範囲に分布し時間変化を示し、どのようなパラメータの組み合わせの場合であったかを分析する。意思創発装置100は、分析の結果に基づいて、各感情となる条件を、各パラメータの値や組み合わせパターンを一覧にして、感情テーブルとして生成し記憶部80に記憶する。
また、検出部20は、対象者PAの音声情報から対象者PAが発話した発話内容を検出してもよい。すなわち、対象者PAが「今日はいい天気ですね」と発話した場合、検出部20は、「きょ/う/は/い/い/て/ん/き/で/す/ね」のように音素ごとの区切りを抽出する。さらに、検出部20は、対象者PAの音声情報から単語ごとの区切りを抽出する。例えば、「今日はいい天気ですね」の音声情報が入力された場合、検出部20は、「きょう/は/いい/てんき/ですね」のように単語ごとの区切りを抽出する。
そして、検出部20は、抽出した対象者PAの音声における音素および単語の区切りを示す情報に基づいて、対象者PAの音声に含まれる単語ごとの認識および構文解析を実行する。すなわち、検出部20は、対象者PAの音声から「誰が」、「何を」、「いつ」、「どこで」、「なぜ」、「どうやって」の5W1Hを示す情報を認識し、対象者PAの音声の内容を自然言語として把握する。また、検出部20は、把握した音声の内容に基づいて、対象者PAの音声から対象者PAが置かれている状況や立場を検出してもよい。そして、検出部20は、検出した対象者PAの発話内容および状況等を、対象者PAの感情とともに記憶部80に記憶する。
決定部30は、例えば、検出部20により検出された対象者PAの感情に応じて音声情報から求まる強度や基本周波数等のパラメータ、および生理情報に含まれる血圧や体温等のパラメータに対する重み付けの係数を決定する。
なお、検出部20により検出される対象者PAの感情は、いずれか1つの感情に分類できるほど単純なものではなく、複数の感情が混ざり合って検出される。また、対象者PAの感情は、対象者PAが置かれている状況や立場によっても変化する。このため、決定部30は、検出部20により検出された対象者PAの発話内容および状況等を考慮して、対象者PAの感情に応じて対象者PAの音声情報および生理情報に対する重み付けの係数を決定することが好ましい。
例えば、検出された対象者PAの感情の時間変化が、予め定めた特定の時間変化、すなわち“印象が強い”状態を表す時間変化と一致する場合、決定部30は、対象者PAの音声情報および生理情報に対する重み付けの係数を大きな値に決定する。また、検出された感情の変化が大きい場合や、同じ発話内容が頻繁に繰り返し検出された場合、あるいは印象に残りやすい発話内容等の場合には、決定部30は、“印象が強い”状態であるとして、対象者PAの音声情報および生理情報に対する重み付けの係数を大きな値に決定する。この場合、検出された対象者PAの感情および発話内容等は、人間の記憶における過去の強烈な記憶として、時間が経過しても記憶部80に保持されるようにすることが好ましい。
一方、検出された対象者PAの感情の時間変化が、予め定めた特定の時間変化、すなわち“印象が強い”状態を表す時間変化と一致しない、すなわち“印象が弱い”状態を表す時間変化の場合、決定部30は、対象者PAの音声情報および生理情報に対する重み付けの係数を小さな値に決定する。また、検出された感情の変化が小さい場合や、1回または数回だけ検出された発話内容等の場合には、決定部30は、“印象が弱い”状態であるとして、対象者PAの音声情報および生理情報に対する重み付けの係数を小さな値に決定する。この場合、検出された対象者PAの感情および発話内容は、人間の記憶における過去の曖昧な記憶として、時間が経過するに従い記憶部80から消去されるようにする。これにより、記憶部80に記憶されるデータ量を抑制できる。
なお、決定部30は、後述する素子部50により出力される信号および創発部60により決定される意思創発装置100の感情のいずれかと、検出された対象者PAの感情とを用いて、対象者PAの音声情報および生理情報の重み付けの係数を決定してもよい。これにより、意思創発装置100の性格および個性を、対象者PA等の外部からの影響とともに、意思創発装置100内部の影響に基づいて変化させることができる。
演算部40は、計測装置1から取得したデータと、決定部30により決定された係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出する。演算部40の動作については、図2および図3で説明する。
素子部50は、演算部40により算出されたエネルギーの入力に応じて物質の状態を変化させるメタモルフォーゼ素子やスピントロニクス等の複数の素子を有する。素子部50は、複数の素子の各々における物質の状態の変化を示す信号を、人間の情動および器官の各々における恒常性として創発部60および制御部70に出力する。素子部50の動作については、図2および図3で説明する。
創発部60は、例えば、記憶部80に記憶される創発テーブルETを用いて、素子部50の各素子から出力された信号に含まれる物質の状態(恒常性)の変化に応じて感情および意思を決定する。創発部60の動作および創発テーブルETについては、図4で説明する。
制御部70は、素子部50に含まれる複数の素子の動作を監視し、複数の素子のうち少なくとも1つの素子における物質の状態の変化量が所定量以下の場合、複数の素子における物質の状態を相転移させる。制御部70の動作については、図3で説明する。
記憶部80は、ハードディスク装置やメモリ等であり、意思創発プログラムとともに、創発テーブルET等のデータを記憶する。また、記憶部80は、取得部10により取得された対象者PAの音声情報および生理情報を含むデータ、および検出部20により検出された対象者PAの感情および発話内容等を記憶する。なお、記憶部80は、意思創発装置100の内部に配置されたが、意思創発装置100の外部に配置されてもよい。この場合、記憶部80は、ネットワーク等を介して意思創発装置100に接続されることが好ましい。
なお、意思創発プログラムは、例えば、CD(Compact Disc)あるいはDVD(Digital Versatile Disc)等のリムーバブルディスクに記録して頒布することができる。また、意思創発装置100は、意思創発プログラムを、意思創発装置100に含まれるネットワークインタフェースを介してネットワークからダウンロードし、記憶部80に格納されてもよい。
図2は、人間における恒常性の連鎖の一例を模式的に示す。図2では、例えば、人間の生体全体における恒常性の均衡を円形の図形の回転で表し、循環系200とする。循環系200は、例えば、人間を形成する物質や器官等の複数の循環系K(K1−K10)をさらに有する。図2では、互いに連鎖して恒常性の均衡を保つ循環系200より小さな円形の回転で循環系K1−K10を表す。例えば、循環系K1は、声帯を介して、人間が発話する音声に基づいた人間の情動の恒常性を示す。循環系K2は、例えば、心拍数や心拍変動等に基づいた人間における心臓の恒常性を示す。循環系K3は、例えば、胃、小腸や大腸等の人間における消化器系の恒常性を示す。循環系K4は、例えば、人間を病気等から保護する免疫系の恒常性を示す。循環系K5は、例えば、人間の生体に含まれる器官の働きを調節する情報の伝達を行うホルモンの恒常性を示す。
また、循環系K6は、例えば、人間の遺伝子が生成する複数種類のタンパク質等の生体分子の恒常性を示す。循環系K7は、例えば、人間の遺伝子の恒常性を示す。循環系K8は、例えば、人間を形成する細胞の活動の恒常性を示す。循環系K9は、例えば、情動と密接な関係のある脳のうち、扁桃体等を含む人間の大脳辺縁系における活動の恒常性を示す。循環系K10は、例えば、シナプスで情報伝達を介在する神経伝達物質の恒常性を示す。
そして、図1に示した意思創発装置100は、人工知能として動作するために、素子部50を用いて意思創発装置100の循環系200における恒常性を求める。
なお、循環系200は、循環系K1−K10の10個を有するとしたが、10以外の複数の循環系を含んでもよい。また、各循環系Kは、さらに複数の循環系を有してもよい。例えば、声帯の循環系K1は、人間における怒り、平常、悲しみ、喜び等の情動を示す複数の循環系を有してもよい。また、心臓の循環系K2は、例えば、人間における心拍数や心拍変動等を示す複数の循環系を有してもよい。
また、循環系200は、人間の生体全体における恒常性を示すとしたが、人間の脳等の1つの部位における恒常性を示してもよく、会社や国家等の人間社会における恒常性を示してもよい。例えば、循環系200が人間の脳における恒常性を示す場合には、各循環系Kは、脳の神経細胞それぞれにおける恒常性を示す。また、循環系200が人間社会における恒常性を示す場合には、各循環系Kは、個々の人間における恒常性を示す。
また、人間における恒常性の連鎖は、図2に示した循環系200にように表されたが、これに限定されず、他の形態で表されてもよい。
図3は、図1に示した素子部50の一例を示す。素子部50は、N個の素子51(51(1)−51(N))および供給部52を有する。
素子51は、例えば、外部から入力される電圧や温度等に応じて固体と液体との間を変化(相転移)する金属酸化物や高分子のハイドルゲル等の物質を有するメタモルフォーゼ素子等である。メタモルフォーゼ素子等の素子51は、物質の状態の変化を示す信号を創発部60および制御部70に出力する。なお、素子51は、物質の状態が固体と液体との間で連続的に変化するため、物質の状態の変化に応じて連続的に変化する値の信号を出力できる。そして、各循環系Kにおける恒常性も連続的に変化することから、各素子51が出力する信号における物質の状態の変化を示す値は、各循環系Kにおける恒常性として用いることができる。そして、意思創発装置100は、N個の素子51を用いることにより、人間の脳の判断過程におけるダブルループ等の反応を再現する。
そこで、図1に示した意思創発装置100は、各素子51を図2に示した各循環系K(例えば、N=10)とし、各素子51が出力する物質の状態の変化を示す信号を各循環系Kにおける恒常性として用いる。なお、各循環系Kは互いに影響し合うことから、各素子51は、物質の状態の変化を示す信号を互いに送受信可能に接続される。
供給部52は、例えば、電源、光源、熱源あるいは噴霧器等である。例えば、供給部52は、電源の場合、演算部40により算出されたエネルギーに応じた電圧または電流等をN個の素子51に供給する。また、供給部52は、光源の場合、演算部40により算出されたエネルギーに応じた強度や周波数の電磁波をN個の素子51に照射する。また、供給部52は、熱源の場合、演算部40により算出されたエネルギーに応じた熱エネルギーをN個の素子51に供給し、噴霧器の場合、演算部40により算出されたエネルギーに応じた濃度や温度の溶剤を噴霧する。
演算部40は、例えば、取得部10が取得したデータと、決定部30が決定した係数と、式(1)とを用いて、意思創発装置100が人工知能として動作する場合の情動および器官の活動に作用するエネルギーTEを算出する。
Figure 0006851871
なお、aは、検出部20により求められた音声情報における強度や基本周波数等のパラメータの値、および計測装置1により計測された生理情報に含まれる血圧等のパラメータの値をそれぞれ示す。wは、各パラメータの値aに対する重み付けの係数を示す。Mは、パラメータの数を示す。
なお、演算部40は、式(1)を用いてエネルギーTEを算出したが、関数F(a,w)を用いてエネルギーTEを算出してもよい。関数F(a,w)は、意思創発装置100に付けたい性格や個性に応じて適宜決定することが好ましい。
また、演算部40が算出するエネルギーTEは、負の値になってもよい。この場合、例えば、供給部52は、素子51に負の電圧を印加してもよく、素子51を冷却してもよい。
なお、素子51は、供給部52を介してエネルギーTEが供給されることにより物質の状態を変化させるが、時間が経過するに従い物質の状態が所定の状態に収束する場合がある。この場合、素子51における物質の状態の変化量が減少する(すなわち、循環系Kにおける恒常性が低下する)。
これを回避するために、制御部70は、各素子51から出力される信号に基づいて、各素子51における物質の状態の変化(恒常性)を監視する。そして、制御部70は、N個の素子51のうち少なくとも1つの素子51の物質の状態の変化量が、所定の時間以上に亘って所定量以下となった場合、恒常性が低下していると判定する。制御部70は、物質の状態を、例えば、固体の部分は液体に、液体の部分は固体に相転移させる指示を、全ての素子51に出力する。これにより、意思創発装置100は、恒常性の低下を回避できる。
また、制御部70がN個の素子51に相転移を指示する動作は、例えば、人間の場合、仕事や議論等が煮詰まった(人間の脳の判断過程におけるダブルループ等の反応が繰り返し実行されている)場合に、休憩や散歩等の気分転換を取ることに相当する。そして、気分転換することにより、人間は、脳におけるダブルループ等の反応を収束させて、新しい視点の考えやアイデアを発想できる場合がある。そこで、制御部70は、N個の素子51に相転移を指示することにより、相転移する前と異なる物質の状態の変化を示す信号を各素子51に出力させる。そして、創発部60は、各素子51の信号に含まれる相転移前と異なる物質の状態の変化に基づいて、相転移前とは異なる感情および意思を決定する。すなわち、意思創発装置100は、制御部70による相転移の指示を意思創発装置100におけるダブルループ等の反応を収束させるタイミングとし、相転移前とは異なる新たな感情および意思を決定する。これにより、意思創発装置100は、自己の気分あるいは状況や場面等に応じた多様な意思や判断等を決定できる。
なお、所定量および所定の時間は、意思創発装置100に付けたい性格や個性に応じて適宜設定されることが好ましい。また、所定量および所定の時間は、素子51ごとに異なる値に設定されてもよい。
また、制御部70が相転移の指示を出力する際の物質の状態の変化量が所定量以下となった素子51の数は、意思創発装置100に付けたい性格や個性に応じて適宜設定されることが好ましい。例えば、素子51の数が少ないほど、意思創発装置100は、対象者PAから入力されたデータに対して短時間に反応することができる。一方、素子51の数が多くなるに従い、意思創発装置100は、対象者PAから入力されたデータに対する反応がゆっくりとなるが、対象者PAに対してより適切な反応を示すことができる。
また、制御部70は、N個の素子51のうち少なくとも1つの素子51における物質の状態が所定の状態の場合に、全ての素子51に相転移の指示を出力してもよい。なお、所定の状態は、意思創発装置100に付けたい性格や個性に応じて適宜設定されることが好ましい。また、所定の状態は、素子51ごとに異なるように設定されてもよい。
図4は、図1に示した創発テーブルETの一例を示す。創発テーブルETは、感情および意思と、素子51(1)−51(N)との格納領域を有する。
感情および意思の格納領域には、“怒り、我慢する”、“怒り、言い返す”、“平常、会話する”および“平常、同意する”等の感情および意思の組み合わせが格納される。
素子51(1)−51(N)の格納領域の各々には、感情および意思の格納領域に格納される感情および意思を創発部60が決定するための各素子51が出力する信号が示す物質の状態の変化(恒常性)の組み合わせが格納される。なお、“−”が格納される格納領域は、創発部60が決定する感情および意思の条件に含まれないことを示す。
各素子51の格納領域に格納される物質の状態の変化は、例えば、特許文献1が開示するシミュレーションを実行する等により、シミュレーションの結果に基づいて所定の時間において素子51の物質が示す状態の変化が予め設定される。なお、各素子51の格納領域に格納される物質の状態の変化は、意思創発装置100に付けたい性格や個性に応じて適宜設定されることが好ましい。
また、素子51(1)−51(N)の格納領域に格納される物質の状態の変化は、決定部30が決定した重み付けの係数や、創発部60が決定した感情および意思等に応じて変更されてもよい。また、素子51(1)−51(N)の格納領域に格納される物質の状態の変化の順番は、決定部30が決定した重み付けの係数や、創発部60が決定した感情および意思等に応じて変更されてもよい。これにより、意思創発装置100の性格および個性を、対象者PA等の外部からの影響とともに、意思創発装置100内部の変化に基づいて変化させることができる。
創発部60は、記憶部80に記憶された創発テーブルETと、N個の素子51の各々から出力される信号に含まれる物質の状態の変化とに基づいて、感情および意思を決定する。そして、創発部60は、決定した感情および意思の結果を出力装置2に出力する。例えば、検出部20により検出された対象者PAの発話内容と、決定した感情および意思とに応じて意思創発装置100が発話する音声データや文字データを格納した発話テーブルが記憶部80に記憶されている場合、創発部60は、検出された対象者PAの発話内容と決定した感情および意思とに対応する音声データ等を、発話テーブルから抽出する。意思創発装置100は、抽出された音声データを出力装置2に含まれるスピーカから出力する。これにより、意思創発装置100は、対象者PAとの間で会話をすることができる。
また、意思創発装置100は、創発部60が決定した感情および意思の結果に基づいて、対象者PAの発話により受けた感情および意思と、対象者PAに対する印象とを出力装置2に出力する。そして、意思創発装置100は、対象者PAが場の空気を読みコミュニケーションを行えるように、対象者PAに対するコミュニケーションの助言等を出力装置2に出力してもよい。これにより、対象者PAのコミュニケーション能力を向上させることができる。
また、対象者PAが精神疾患等を患っている場合、意思創発装置100は、創発部60が決定した感情および意思の結果に応じて、対象者PAに対する精神疾患等に対する助言等を出力装置2に出力してもよい。これにより、意思創発装置100は、対象者PAの病状の改善を図ることができる。
図5は、図1に示した意思創発装置100における意思創発処理の一例を示す。図5に示した処理は、意思創発装置100の演算処理装置が記憶部80に記憶された意思創発プログラムを実行することにより実現される。すなわち、図5に示した処理は、意思創発プログラムおよび意思創発方法の一実施形態を示す。なお、図5に示した処理は、意思創発装置100に搭載されるハードウェアにより実現されてもよい。この場合、図1に示した検出部20、決定部30、演算部40、創発部60および制御部70は、意思創発装置100内に配置される回路により実現される。
ステップS100では、取得部10は、計測装置1により計測された対象者PAの音声情報および生理情報を含むデータを取得する。取得部10は、取得したデータを検出部20に出力する。
次に、ステップS110では、検出部20は、ステップS100で取得されたデータのうち対象者PAの音声情報を用いて、対象者PAにおける“怒り”や“平常”等の感情を検出する。検出部20は、対象者PAの感情の検出結果を決定部30に出力する。
次に、ステップS120では、決定部30は、ステップS120で検出された対象者PAの感情に応じて対象者PAの音声情報および生理情報に対する重み付けの係数を決定する。
次に、ステップS130では、演算部40は、ステップS100で取得されたデータと、ステップS120で決定された係数と、式(1)とを用いて、人間における情動および器官の活動に作用するエネルギーTEを算出する。
次に、ステップS140では、素子部50は、ステップS130で算出されたエネルギーTEを、供給部52を介してN個の素子51に供給する。素子51の各々は、供給されるエネルギーTEに応じて物質の状態を変化させ、各循環系Kにおける恒常性として、物質の状態の変化を示す信号を創発部60および制御部70にそれぞれ出力する。
次に、ステップS150では、制御部70は、ステップS140で各素子51から出力された信号を受信し、各素子51における物質の状態の変化(恒常性)を監視する。制御部70は、N個の素子51のうち少なくとも1つの素子51における物質の状態の変化量が、所定量以下か否かを判定する。素子51の物質の状態の変化量が所定の時間以上に亘って所定量以下の場合、意思創発装置100の処理は、ステップS160に移る。一方、素子51の物質の状態の変化量が、所定の時間に亘って所定量以下でない場合、意思創発装置100の処理は、ステップS170に移る。
ステップS160では、制御部70は、物質の状態を相転移させる指示を全ての素子51に対して出力する。そして、意思創発装置100の処理は、ステップS170に移る。
ステップS170では、創発部60は、記憶部80に記憶された創発テーブルETと、N個の素子51の各々から出力される信号に含まれる物質の状態の変化とに基づいて、感情および意思を決定する。あるいは、創発部60は、ステップS160で相転移した以降に、各素子51から出力される信号に含まれる物質の状態の変化と、創発テーブルETとに基づいて、感情および意思を決定する。創発部60は、決定した感情および意思の結果を出力装置2に出力する。例えば、検出部20により検出された対象者PAの発話内容と、決定した感情および意思とに応じて意思創発装置100が発話する音声データや文字データを格納した発話テーブルが記憶部80に記憶されている場合、創発部60は、検出された対象者PAの発話内容と決定した感情および意思とに対応する音声データ等を、発話テーブルから抽出する。意思創発装置100は、抽出された音声データを出力装置2に含まれるスピーカから出力し、対象者PAと会話する。
また、意思創発装置100は、創発部60が決定した感情および意思の結果に基づいて、対象者PAの発話により受けた感情および意思と、対象者PAに対する印象とを出力装置2に出力してもよい。そして、意思創発装置100は、対象者PAが場の空気を読みコミュニケーションを行えるように、対象者PAに対するコミュニケーションの助言等を出力装置2に出力することにより、対象者PAのコミュニケーション能力の向上を図る。
また、対象者PAが精神疾患等を患っている場合、意思創発装置100は、創発部60が決定した感情および意思の結果に応じて、対象者PAに対する精神疾患等に対する助言等を出力装置2に出力し、対象者PAの病状の改善を図る。
そして、意思創発装置100は、意思創発処理を終了する。意思創発装置100は、計測装置1から対象者PAのデータを受信する度に、ステップS100からステップS170の処理を繰り返し実行する。
なお、図5に示した処理において、ステップS100からステップS140の処理と、ステップS150からステップS170の処理とは並列に実行されてもよい。
以上、図1から図5に示した実施形態では、決定部30は、検出部20が対象者PAの音声情報から検出した対象者PAの感情に応じて、取得部10が取得したデータに含まれる音声情報および生理情報に対する重み付けの係数を決定する。そして、素子部50は、決定部30が決定した重み付けの係数を用いて演算部40により算出されたエネルギーTEを、供給部52を介してN個の素子51に入力する。各素子51は、物質の状態の変化を含む信号を、人間の情動および器官の各々における恒常性として創発部60および制御部70に出力する。創発部60は、各素子51から出力される信号が示す物質の状態の変化に応じて感情および意思を決定し、制御部70は、N個の素子51のうち、少なくとも1つの素子51において物質の状態の変化量が所定量以下の場合、N個の素子51に対して相転移の指示を出力し物質の状態を相転移させる。
すなわち、意思創発装置100は、制御部70による相転移の指示を意思創発装置100におけるダブルループ等の反応を収束させるタイミングとし、相転移前とは異なる新たな感情および意思を決定する。これにより、意思創発装置100は、自己の気分あるいは状況や場面等に応じた多様な意思や判断等を決定できる。
また、対象者PAは、人間の代わりに、他の意思創発装置100でもよい。この場合、意思創発装置100が他の意思創発装置100から取得するデータは、他の意思創発装置100が出力する音声情報のみでもよく、他の意思創発装置100の各素子51が出力する信号を生理情報として用いられてもよい。これにより、意思創発装置100は、人間におけるコミュニケーションの発達をシミュレーションできる。
なお、図1に示した意思創発装置100は、精神分析、行動予測、行動分析等の心理カウンセリング、精神医療、一般医療における面接や処方へ適用されてもよい。また、意思創発装置100は、ロボット、人工知能や自動車、あるいはコールセンター、エンターテイメント、インターネット、スマートフォンやタブレット型端末等の携帯端末装置アプリケーションやサービス、検索システムへ応用されてもよい。また、意思創発装置100は、診断装置、自動問診装置、災害トリアージ等に応用されてもよい。また、意思創発装置100は、金融与信管理システムや行動予測、企業、学校、行政機関、警察や軍事、情報収集活動等での情報分析、虚偽発見に繋がる心理分析、組織グループ管理へ応用されてもよい。また、意思創発装置100は、組織の構成員、研究者や従業員、管理者等の心の健康や行動予測を管理するシステム、住居やオフィス、飛行機や宇宙船といった環境を制御するシステム、あるいは家族や友人の心の状態や行動予測を知るための手段に適用されてもよい。また、意思創発装置100は、音楽や映画配信、一般的な情報検索、情報分析管理や情報処理、あるいは顧客感性嗜好マーケット分析等やこれらをネットワークやスタンドアローンで管理するシステム等へ適用されてもよい。
以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲がその精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずである。したがって、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物に拠ることも可能である。
1…計測装置;2…出力装置;10…取得部;20…検出部;30…決定部;40…演算部;50…素子部;51(1)−51(N)…素子;52…供給部;60…創発部;70…制御部;80…記憶部;100…意思創発装置;200,K1−K10…循環系;ET…創発テーブル

Claims (5)

  1. 少なくとも検出対象の対象者が発話した音声情報を含むデータを取得する取得部と、
    取得した前記データを用いて前記対象者の感情を検出する検出部と、
    検出された前記対象者の感情に応じて取得した前記データに対する重み付けの係数を決定する決定部と、
    前記データと前記係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出する演算部と、
    前記演算部により算出された前記エネルギーの入力に応じて状態が変化する物質を含み、人間の情動および器官の各々における恒常性として前記物質の状態の変化を示す信号を出力する複数の素子と、
    前記複数の素子の各々から出力された前記信号に含まれる前記物質の状態の変化に応じて感情および意思を決定する創発部と、
    前記複数の素子のうち、少なくとも1つの素子における前記物質の状態の変化量が所定量以下の場合、または少なくとも1つの素子における前記物質の状態が所定の状態の場合、前記複数の素子における前記物質の状態を相転移させる制御部と
    を備えることを特徴とする意思創発装置。
  2. 請求項1に記載の意思創発装置において、
    前記複数の素子は、前記信号を送受信可能に互いに接続されることを特徴とする意思創発装置。
  3. 請求項1または請求項2に記載の意思創発装置において、
    前記決定部は、検出された前記感情と、前記創発部が決定した感情とに応じて、前記データに対する重み付けの係数を決定することを特徴とする意思創発装置。
  4. 少なくとも検出対象の対象者が発話した音声情報を含むデータを取得し、
    取得した前記データを用いて前記対象者の感情を検出し、
    検出された前記感情に応じて取得した前記データに対する重み付けの係数を決定し、
    前記データと前記係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出し、
    入力に応じて状態が変化する物質を含む複数の素子に対して算出された前記エネルギーを入力して、人間の情動および器官の各々における恒常性として前記物質の状態の変化を示す信号を前記複数の素子の各々に出力させ、
    前記複数の素子の各々から出力された前記信号に含まれる前記物質の状態の変化に応じて感情および意思を決定し、
    前記複数の素子のうち、少なくとも1つの素子における前記物質の状態の変化量が所定量以下の場合、または少なくとも1つの素子における前記物質の状態が所定の状態の場合、前記複数の素子における前記物質の状態を相転移させる
    ことを特徴とする意思創発方法。
  5. 少なくとも検出対象の対象者が発話した音声情報を含むデータを取得し、
    取得した前記データを用いて前記対象者の感情を検出し、
    検出された前記感情に応じて取得した前記データに対する重み付けの係数を決定し、
    前記データと前記係数とを用いて人間における情動および器官の活動に作用するエネルギーを算出し、
    入力に応じて状態が変化する物質を含む複数の素子に対して算出された前記エネルギーを入力して、人間の情動および器官の各々における恒常性として前記物質の状態の変化を示す信号を前記複数の素子の各々に出力させ、
    前記複数の素子の各々から出力された前記信号に含まれる前記物質の状態の変化に応じて感情および意思を決定し、
    前記複数の素子のうち、少なくとも1つの素子における前記物質の状態の変化量が所定量以下の場合、または少なくとも1つの素子における前記物質の状態が所定の状態の場合、前記複数の素子における前記物質の状態を相転移させる
    処理をコンピュータに実行させる意思創発プログラム。
JP2017054238A 2016-03-30 2017-03-21 意思創発装置、意思創発方法および意思創発プログラム Active JP6851871B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
CA3017450A CA3017450C (en) 2016-03-30 2017-03-27 Intention emergence device, intention emergence method, and intention emergence program
EP17774941.3A EP3438886A4 (en) 2016-03-30 2017-03-27 THOUGHT EMERGENCY DEVICE, THINKING EMERGENCE METHOD, AND THOUGHT EMERGENCY PROGRAM
CN201780020406.8A CN108885711B (zh) 2016-03-30 2017-03-27 意思涌现装置、意思涌现方法及存储介质
US16/083,324 US10325616B2 (en) 2016-03-30 2017-03-27 Intention emergence device, intention emergence method, and intention emergence program
PCT/JP2017/012398 WO2017170404A1 (ja) 2016-03-30 2017-03-27 意思創発装置、意思創発方法および意思創発プログラム
KR1020187031012A KR102437264B1 (ko) 2016-03-30 2017-03-27 의사 창발 장치, 의사 창발 방법 및 의사 창발 프로그램
RU2018138038A RU2741934C2 (ru) 2016-03-30 2017-03-27 Устройство для выявления намерения, способ выявления намерения и программа для выявления намерения
TW106110565A TWI722160B (zh) 2016-03-30 2017-03-29 意思創發裝置、意思創發方法及意思創發程式

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016068827 2016-03-30
JP2016068827 2016-03-30

Publications (2)

Publication Number Publication Date
JP2017188097A JP2017188097A (ja) 2017-10-12
JP6851871B2 true JP6851871B2 (ja) 2021-03-31

Family

ID=60045101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017054238A Active JP6851871B2 (ja) 2016-03-30 2017-03-21 意思創発装置、意思創発方法および意思創発プログラム

Country Status (8)

Country Link
US (1) US10325616B2 (ja)
EP (1) EP3438886A4 (ja)
JP (1) JP6851871B2 (ja)
KR (1) KR102437264B1 (ja)
CN (1) CN108885711B (ja)
CA (1) CA3017450C (ja)
RU (1) RU2741934C2 (ja)
TW (1) TWI722160B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6851871B2 (ja) * 2016-03-30 2021-03-31 光吉 俊二 意思創発装置、意思創発方法および意思創発プログラム
JP6273314B2 (ja) * 2016-05-13 2018-01-31 Cocoro Sb株式会社 記憶制御システム、システム及びプログラム
JP7151181B2 (ja) * 2018-05-31 2022-10-12 トヨタ自動車株式会社 音声対話システム、その処理方法及びプログラム
WO2021161492A1 (ja) * 2020-02-14 2021-08-19 株式会社ロボマインド 汎用人工知能システムおよび汎用人工知能プログラム
US11622194B2 (en) * 2020-12-29 2023-04-04 Nuvoton Technology Corporation Deep learning speaker compensation

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (ja) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd 感情模擬装置
TWI221574B (en) * 2000-09-13 2004-10-01 Agi Inc Sentiment sensing method, perception generation method and device thereof and software
KR20050016700A (ko) * 2002-07-03 2005-02-21 에너지 컨버젼 디바이시즈, 아이엔씨. 유사 뉴런 및 뉴로 시냅스 네트웍
US6999953B2 (en) * 2002-07-03 2006-02-14 Energy Conversion Devices, Inc. Analog neurons and neurosynaptic networks
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
JP4371699B2 (ja) * 2003-05-14 2009-11-25 独立行政法人科学技術振興機構 バイタルサイン計測システム、バイタルサイン計測方法、バイタルサイン計測プログラム、及び記録媒体
US7158966B2 (en) * 2004-03-09 2007-01-02 Microsoft Corporation User intent discovery
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8337404B2 (en) * 2010-10-01 2012-12-25 Flint Hills Scientific, Llc Detecting, quantifying, and/or classifying seizures using multimodal data
JP5394118B2 (ja) 2008-05-09 2014-01-22 株式会社Agi 行動分析装置及びコールセンターシステム
US20120116186A1 (en) * 2009-07-20 2012-05-10 University Of Florida Research Foundation, Inc. Method and apparatus for evaluation of a subject's emotional, physiological and/or physical state with the subject's physiological and/or acoustic data
TWI413938B (zh) * 2009-12-02 2013-11-01 Phison Electronics Corp 情感引擎、情感引擎系統及電子裝置的控制方法
US10074024B2 (en) * 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
CN103871425B (zh) * 2012-12-14 2017-09-29 鸿富锦精密工业(深圳)有限公司 音频信息检测系统及方法
TWI469814B (zh) * 2013-02-07 2015-01-21 Univ Southern Taiwan Sci & Tec Voice - based and brain waves, supplemented by the role of video game control system Methods and methods
US10424318B2 (en) * 2013-07-05 2019-09-24 Patrick Levy-Rosenthal Method, system and program product for perceiving and computing emotions
US10485467B2 (en) * 2013-12-05 2019-11-26 Pst Corporation, Inc. Estimation device, program, estimation method, and estimation system
JP6058053B2 (ja) * 2014-06-05 2017-01-11 Cocoro Sb株式会社 記録制御システム、システム及びプログラム
US10068588B2 (en) * 2014-07-21 2018-09-04 Microsoft Technology Licensing, Llc Real-time emotion recognition from audio signals
CN105380655B (zh) * 2015-10-23 2017-03-08 广东小天才科技有限公司 一种移动终端的情绪预警方法、装置及移动终端
CN105426723A (zh) * 2015-11-20 2016-03-23 北京得意音通技术有限责任公司 基于声纹识别、人脸识别以及同步活体检测的身份认证方法及系统
US10172517B2 (en) * 2016-02-25 2019-01-08 Samsung Electronics Co., Ltd Image-analysis for assessing heart failure
US11164596B2 (en) * 2016-02-25 2021-11-02 Samsung Electronics Co., Ltd. Sensor assisted evaluation of health and rehabilitation
JP6851871B2 (ja) * 2016-03-30 2021-03-31 光吉 俊二 意思創発装置、意思創発方法および意思創発プログラム
US10769418B2 (en) * 2017-01-20 2020-09-08 At&T Intellectual Property I, L.P. Devices and systems for collective impact on mental states of multiple users

Also Published As

Publication number Publication date
JP2017188097A (ja) 2017-10-12
RU2741934C2 (ru) 2021-01-29
CN108885711B (zh) 2022-09-20
US20190027163A1 (en) 2019-01-24
KR102437264B1 (ko) 2022-08-29
KR20180130539A (ko) 2018-12-07
TW201810254A (zh) 2018-03-16
CA3017450C (en) 2023-05-23
RU2018138038A3 (ja) 2020-07-14
EP3438886A1 (en) 2019-02-06
RU2018138038A (ru) 2020-04-30
US10325616B2 (en) 2019-06-18
EP3438886A4 (en) 2019-11-27
CN108885711A (zh) 2018-11-23
TWI722160B (zh) 2021-03-21
CA3017450A1 (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6851871B2 (ja) 意思創発装置、意思創発方法および意思創発プログラム
US11696714B2 (en) System and method for brain modelling
JP5755791B2 (ja) 推定装置、プログラム、推定装置の作動方法および推定システム
JP5643207B2 (ja) ユーザが精神的に衰弱した状態にあるときにユーザの対話を可能にするコンピューティングデバイス、コンピューティングシステム及び方法
Yannakakis et al. Psychophysiology in games
Liu et al. Speech recognition via fNIRS based brain signals
Zhang Stress recognition from heterogeneous data
Rituerto-González et al. A hybrid data fusion architecture for BINDI: A wearable solution to combat gender-based violence
Gruenewald et al. [Regular Paper] Biomedical Data Acquisition and Processing to Recognize Emotions for Affective Learning
US20230347100A1 (en) Artificial intelligence-guided visual neuromodulation for therapeutic or performance-enhancing effects
Alnemari Integration of a low cost eeg headset with the internet of thing framework
WO2017170404A1 (ja) 意思創発装置、意思創発方法および意思創発プログラム
Sinha Affective computing and emotion-sensing technology for emotion recognition in mood disorders
Suneetha et al. A Survey Of Machine Learning Techniques OnSpeech Based Emotion Recognition And Post Traumatic Stress DisorderDetection
Fong et al. Longitudinal ambient mobile sensor monitoring for tcm-oriented healthcare assessments: Framework, challenges and applications
Shepelev et al. A novel neural network-based approach to classification of implicit emotional components in ordinary speech
Subbiah et al. Brain Computer Interface for Stroke Psychotherapy: Intonation of Cortical High-Strung
Quatieri et al. Noninvasive biomarkers of neurobehavioral performance
WO2023184039A1 (en) Method, system, and medium for measuring, calibrating and training psychological absorption
de Santana et al. Emotion Recognition from Multimodal Data: a machine learning approach combining classical and hybrid deep architectures
Espinola et al. The Sound of the Mind: Detection of Common Mental Disorders Using Vocal Acoustic Analysis and Machine Learning
Islam et al. Emotion recognition using EEG signal and deep learning approach
WO2024107110A1 (en) Music-based emotion profiling system
Ekanayake CognitiveEmotional User Correction for Multimedia Interactions Using Visual Attention and Psychophysiological Signals
Patil et al. Modality Classification of Human Emotions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210310

R150 Certificate of patent or registration of utility model

Ref document number: 6851871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250