JP7205533B2 - 情報処理装置及び情報処理方法、並びにロボット装置 - Google Patents
情報処理装置及び情報処理方法、並びにロボット装置 Download PDFInfo
- Publication number
- JP7205533B2 JP7205533B2 JP2020507366A JP2020507366A JP7205533B2 JP 7205533 B2 JP7205533 B2 JP 7205533B2 JP 2020507366 A JP2020507366 A JP 2020507366A JP 2020507366 A JP2020507366 A JP 2020507366A JP 7205533 B2 JP7205533 B2 JP 7205533B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- data
- classifier
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 87
- 238000003672 processing method Methods 0.000 title claims description 12
- 230000009471 action Effects 0.000 claims description 145
- 230000008859 change Effects 0.000 claims description 27
- 230000006866 deterioration Effects 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 27
- 230000001815 facial effect Effects 0.000 claims description 17
- 230000007246 mechanism Effects 0.000 description 98
- 230000006399 behavior Effects 0.000 description 51
- 230000007704 transition Effects 0.000 description 30
- 238000000034 method Methods 0.000 description 23
- 210000003128 head Anatomy 0.000 description 20
- 230000008451 emotion Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 17
- 210000002414 leg Anatomy 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 210000001624 hip Anatomy 0.000 description 10
- 230000004044 response Effects 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 210000000887 face Anatomy 0.000 description 6
- 210000004394 hip joint Anatomy 0.000 description 6
- 230000036544 posture Effects 0.000 description 6
- 210000000323 shoulder joint Anatomy 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 210000000544 articulatio talocruralis Anatomy 0.000 description 5
- 210000000245 forearm Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 210000000629 knee joint Anatomy 0.000 description 4
- 210000001699 lower leg Anatomy 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 210000000689 upper leg Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001589086 Bellapiscis medius Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000036528 appetite Effects 0.000 description 1
- 235000019789 appetite Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Image Analysis (AREA)
Description
前記識別器の状態を取得する取得部と、
前記状態に基づいて前記デバイスの行動を決定する決定部と、
を具備する情報処理装置である。
前記識別器の状態を取得する取得ステップと、
前記状態に基づいて前記デバイスの行動を決定する決定ステップと、
を有する情報処理方法である。
センサ部と、
前記センサ部の出力に基づいてオブジェクトを識別する識別部と、
駆動部と、
前記識別部の状態に基づいて、前記駆動部を用いた行動を決定する決定部と、
を具備するロボット装置である。
(1)識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理装置であって、
前記識別器の状態を取得する取得部と、
前記状態に基づいて前記デバイスの行動を決定する決定部と、
を具備する情報処理装置。
(1-1)前記識別器は、オブジェクトとしてユーザを識別し、
前記決定部は、前記識別器が識別したユーザに対する行動を決定する、
上記(1)に記載の情報処理装置。
(1-2)前記識別器は、前記デバイスに備えられたセンサによる検出信号に基づいてユーザを識別する、
上記(1-1)に記載の情報処理装置
(1-3)前記識別器をさらに備える、
上記(1)に記載の情報処理装置。
(1-4)前記デバイスをさらに備える、
上記(1)に記載の情報処理装置。
(1-5)前記デバイスは、移動手段を備えるロボット装置である、
上記(1-4)に記載の情報処理装置。
(2)前記取得部は、前記識別器のオブジェクトに対する識別性能を取得し、
前記決定部は、前記識別性能が低い原因を解決するための前記デバイスの行動を決定する、
上記(1)に記載の情報処理装置。
(3)前記取得部は、前記識別器がオブジェクトの識別に用いるデータの状態を取得し、
前記決定部は、識別用のデータが不足しているオブジェクトからデータを取得するための前記デバイスの行動を決定する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(3-1)前記取得部は、前記識別器が識別したオブジェクトの識別用のデータが十分又は不足しているかを取得し、
前記決定部は、データが不足している状態のときに、前記識別したオブジェクトからデータを取得するための前記デバイスの行動を決定する、
上記(3)に記載の情報処理装置。
(3-2)前記取得部は、識別用のデータが不足しているオブジェクトに関する情報を取得し、
前記決定部は、データが不足しているオブジェクトからデータを取得するための前記デバイスの行動を決定する、
上記(3)に記載の情報処理装置。
(4)前記識別器は、ユーザの音声データから話者を識別する話者識別器を含み、
前記決定部は、音声データが不足しているユーザから音声データを収集するための前記デバイスの行動を決定する、
上記(3)に記載の情報処理装置。
(5)前記取得部は、音韻又は音素単位でユーザ識別用の音声データが十分又は不足しているかどうかを取得し、
前記決定部は、不足している音韻又は音素を含む音声データをユーザから収集するための前記デバイスの行動を決定する、
上記(4)に記載の情報処理装置。
(6)前記識別器は、ユーザの顔画像を識別する顔識別器を含み、
前記決定部は、顔画像データが不足しているユーザの顔画像データを収集するための前記デバイスの行動を決定する、
上記(3)乃至(5)のいずれかに記載の情報処理装置。
(7)前記取得部は、顔の向き毎にユーザ識別用の顔データが十分又は不足しているかどうかを取得し、
決定部は、不足している顔の向きの顔画像を収集するための前記デバイスの行動を決定する、
上記(6)に記載の情報処理装置。
(8)前記決定部は、識別用のデータが古くなってしまったユーザからデータを取得するための前記デバイスの行動を決定する、
上記(3)乃至(7)のいずれかに記載の情報処理装置。
(9)前記取得部は、複数の識別器の状態を取得し、
前記決定部は、前記複数の識別器の各状態に基づいて、前記複数の識別器のうち少なくとも1つがオブジェクト識別に用いるデータを取得するための前記デバイスの行動を決定する、
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータが不足している場合に、前記オブジェクトから前記第2の識別器で識別に用いるデータを取得するための前記デバイスの行動を決定する、
上記(9)に記載の情報処理装置。
(11)前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータの照合スコアが低い場合に、前記オブジェクトから前記第2の識別器に用いるデータを取得するための前記デバイスの行動を決定する、
上記(9)又は(10)のいずれかに記載の情報処理装置。
(12)前記識別器は、ユーザの音声データから話者を識別する話者識別器とユーザの顔画像を識別する顔識別器を含み、
前記決定部は、
顔識別できたユーザを話者識別するための音声データの照合スコアが低い場合に、前記ユーザから音声データを取得するための前記デバイスの行動を決定し、
話者識別できたユーザを顔識別するための顔画像データの照合スコアが低い場合に、前記ユーザから顔画像データを取得するための前記デバイスの行動を決定する、
上記(11)に記載の情報処理装置。
(13)前記決定部は、ある環境下で前記識別器が前記ユーザの識別に用いるデータ量が不足している場合に、前記環境下でのデータを前記ユーザから取得するための前記デバイスの行動を決定する、
上記(6)に記載の情報処理装置。
(14)前記取得部は、生体情報に基づいてユーザを識別する識別器の状態を取得し、
前記決定部は、生体情報が不足しているユーザから生体情報を取得するための前記デバイスの行動を決定する、
上記(4)乃至(10)のいずれかに記載の情報処理装置。
(14-1)前記決定部は、心拍信号が不足しているユーザに対して接触を促すための前記デバイスの行動を決定する、
上記(14)に記載の情報処理装置。
(14-2)前記決定部は、虹彩の情報が不足しているユーザから虹彩の情報を取得し易くための前記デバイスの行動を決定する、
上記(14)に記載の情報処理装置。
(15)前記識別器がユーザを識別する識別性能の低下を判定する判定部をさらに備え、
前記決定部は、前記識別性能が低下した原因を特定するための前記デバイスの行動を決定し、前記識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記識別器に指示する、
上記(4)乃至(14)のいずれかに記載の情報処理装置。
(16)前記決定部は、前記識別性能が低下した原因を特定するための前記ユーザに対する質問文を生成し、前記ユーザからの回答を解析して原因を特定する、
上記(15)に記載の情報処理装置。
(17)前記決定部は、前記原因が前記ユーザの一時的な変化によるものと特定した場合には、前記識別器に対して新たに取得したデータを一時的にのみ使用するように指示する、
上記(15)又は(16)のいずれかに記載の情報処理装置。
(18)前記決定部は、前記原因が前記ユーザの恒久的又は継続的な変化によるものと特定した場合には、前記識別器に対して新たに取得したデータで置き換えるように指示する、
上記(15)乃至(17)のいずれかに記載の情報処理装置。
(19)識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理方法であって、
前記識別器の状態を取得する取得ステップと、
前記状態に基づいて前記デバイスの行動を決定する決定ステップと、
を有する情報処理方法。
(20)センサ部と、
前記センサ部の出力に基づいてオブジェクトを識別する識別部と、
駆動部と、
前記識別部の状態に基づいて、前記駆動部を用いた行動を決定する決定部と、
を具備するロボット装置。
4R/L…腕部外装ユニット、5R/L…脚部外装ユニット
11…胴体部ユニット、12…頭部ユニット
13A、13B…腕部ユニット、14A、14B…脚部ユニット
21…フレーム、22…腰ベース、23…腰関節機構
24…体幹ロール軸、25…体幹ピッチ軸、26…肩ベース
27…首関節機構、28…首ピッチ軸、29…首ロール軸
30…肩関節機構、31…肩関節ピッチ軸、32…肩関節ロール軸
33…肘関節機構、34…手部
35…肘関節ヨー軸、36…肘関節ピッチ軸、37…股関節機構
38…股関節ヨー軸、39…股関節ロール軸、40…股関節ピッチ軸
41…大腿部フレーム、42…膝関節機構、43…下腿部フレーム
44…足首関節機構、45…足部、46…膝関節ピッチ軸
47…足首関節ピッチ軸、48…足首関節ロール軸
51…タッチセンサ、52…制御ユニット、55…表示部
61…メイン制御部、61A…メモリ、62…周辺回路
63A乃至63D…サブ制御部、71…外部センサ部
72…スピーカ、73…内部センサ部、74…バッテリ
75…外部メモリ81L/R…カメラ、82…マイクロホン
91…バッテリセンサ、92…加速度センサ
101…状態認識情報処理部、101A…音声認識部
101a…制御部、101b…話者識別部
101C…圧力処理部、101D…画像認識部、102…モデル記憶部
103…行動決定機構部、104…姿勢遷移機構部
105…音声合成部、121…特徴抽出部、122…マッチング部
123…音響モデル、124…単語辞書、125…言語モデル
127…話者音声データベース
1101…識別性能判定部、1102…識別性能記憶部
1103…質問生成部、1104…学習判定部
Claims (19)
- 識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理装置であって、
前記識別器の状態を取得する取得部と、
前記状態に基づいて前記デバイスの行動を決定する決定部と、
を具備し、
前記識別器は、ユーザを識別する識別器を含み、
前記情報処理装置は、前記ユーザを識別する識別器の識別性能の低下を判定する判定部をさらに備え、
前記決定部は、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記デバイスの行動を決定し、前記ユーザを識別する識別器の識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記ユーザを識別する識別器に指示する、
情報処理装置。 - 前記取得部は、前記識別器のオブジェクトに対する識別性能を取得し、
前記決定部は、前記識別性能が低い原因を解決するための前記デバイスの行動を決定する、
請求項1に記載の情報処理装置。 - 前記取得部は、前記識別器がオブジェクトの識別に用いるデータの状態を取得し、
前記決定部は、識別用のデータが不足しているオブジェクトからデータを取得するための前記デバイスの行動を決定する、
請求項1に記載の情報処理装置。 - 前記識別器は、ユーザの音声データから話者を識別する話者識別器を含み、
前記決定部は、音声データが不足しているユーザから音声データを収集するための前記デバイスの行動を決定する、
請求項3に記載の情報処理装置。 - 前記取得部は、音韻又は音素単位でユーザ識別用の音声データが十分又は不足しているかどうかを取得し、
前記決定部は、不足している音韻又は音素を含む音声データをユーザから収集するための前記デバイスの行動を決定する、
請求項4に記載の情報処理装置。 - 前記識別器は、ユーザの顔画像を識別する顔識別器を含み、
前記決定部は、顔画像データが不足しているユーザの顔画像データを収集するための前記デバイスの行動を決定する、
請求項3に記載の情報処理装置。 - 前記取得部は、顔の向き毎にユーザ識別用の顔データが十分又は不足しているかどうかを取得し、
決定部は、不足している顔の向きの顔画像を収集するための前記デバイスの行動を決定する、
請求項6に記載の情報処理装置。 - 前記決定部は、識別用のデータが古くなってしまったユーザからデータを取得するための前記デバイスの行動を決定する、
請求項3に記載の情報処理装置。 - 前記取得部は、複数の識別器の状態を取得し、
前記決定部は、前記複数の識別器の各状態に基づいて、前記複数の識別器のうち少なくとも1つがオブジェクト識別に用いるデータを取得するための前記デバイスの行動を決定する、
請求項1に記載の情報処理装置。 - 前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータが不足している場合に、前記オブジェクトから前記第2の識別器で識別に用いるデータを取得するための前記デバイスの行動を決定する、
請求項9に記載の情報処理装置。 - 前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータの照合スコアが低い場合に、前記オブジェクトから前記第2の識別器に用いるデータを取得するための前記デバイスの行動を決定する、
請求項9に記載の情報処理装置。 - 前記識別器は、ユーザの音声データから話者を識別する話者識別器とユーザの顔画像を識別する顔識別器を含み、
前記決定部は、
顔識別できたユーザを話者識別するための音声データの照合スコアが低い場合に、前記ユーザから音声データを取得するための前記デバイスの行動を決定し、
話者識別できたユーザを顔識別するための顔画像データの照合スコアが低い場合に、前記ユーザから顔画像データを取得するための前記デバイスの行動を決定する、
請求項11に記載の情報処理装置。 - 前記決定部は、ある環境下で前記識別器が前記ユーザの識別に用いるデータ量が不足している場合に、前記環境下でのデータを前記ユーザから取得するための前記デバイスの行動を決定する、
請求項6に記載の情報処理装置。 - 前記取得部は、生体情報に基づいてユーザを識別する識別器の状態を取得し、
前記決定部は、生体情報が不足しているユーザから生体情報を取得するための前記デバイスの行動を決定する、
請求項4に記載の情報処理装置。 - 前記決定部は、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記ユーザに対する質問文を生成し、前記ユーザからの回答を解析して原因を特定する、
請求項1に記載の情報処理装置。 - 前記決定部は、前記原因が前記ユーザの一時的な変化によるものと特定した場合には、前記ユーザを識別する識別器に対して新たに取得したデータを一時的にのみ使用するように指示する、
請求項1に記載の情報処理装置。 - 前記決定部は、前記原因が前記ユーザの恒久的又は継続的な変化によるものと特定した場合には、前記ユーザを識別する識別器に対して新たに取得したデータで置き換えるように指示する、
請求項1に記載の情報処理装置。 - 識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理方法であって、
前記識別器の状態を取得する取得ステップと、
前記状態に基づいて前記デバイスの行動を決定する決定ステップと、
を有し、
前記識別器は、ユーザを識別する識別器を含み、
前記情報処理方法は、前記ユーザを識別する識別器の識別性能の低下を判定する判定ステップをさらに有し、
前記決定ステップでは、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記デバイスの行動を決定し、前記ユーザを識別する識別器の識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記ユーザを識別する識別器に指示する、
情報処理方法。 - センサ部と、
前記センサ部の出力に基づいてオブジェクトを識別する識別部と、
駆動部と、
前記識別部の状態に基づいて、前記駆動部を用いた行動を決定する決定部と、
を具備し、
前記識別部は、ユーザを識別する識別器を含み、
前記ユーザを識別する識別器の識別性能の低下を判定する判定部をさらに備え、
前記決定部は、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記駆動部を用いた行動を決定し、前記ユーザを識別する識別器の識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記ユーザを識別する識別器に指示する、
ロボット装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018053566 | 2018-03-20 | ||
JP2018053566 | 2018-03-20 | ||
PCT/JP2019/000053 WO2019181144A1 (ja) | 2018-03-20 | 2019-01-07 | 情報処理装置及び情報処理方法、並びにロボット装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019181144A1 JPWO2019181144A1 (ja) | 2021-04-01 |
JP7205533B2 true JP7205533B2 (ja) | 2023-01-17 |
Family
ID=67987098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020507366A Active JP7205533B2 (ja) | 2018-03-20 | 2019-01-07 | 情報処理装置及び情報処理方法、並びにロボット装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11992930B2 (ja) |
EP (1) | EP3770821A4 (ja) |
JP (1) | JP7205533B2 (ja) |
WO (1) | WO2019181144A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024191111A1 (ko) * | 2023-03-16 | 2024-09-19 | 유재천 | Ai 로봇 메디컬 핸드 장치 및 이를 이용한 자가 검사 방법 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI722709B (zh) * | 2019-12-10 | 2021-03-21 | 東海大學 | 智慧型聲音故事生成之方法及系統 |
JP7283495B2 (ja) * | 2021-03-16 | 2023-05-30 | カシオ計算機株式会社 | 機器の制御装置、機器の制御方法及びプログラム |
WO2023275971A1 (ja) * | 2021-06-29 | 2023-01-05 | 日本電気株式会社 | 情報処理装置、情報処理方法及び非一時的なコンピュータ可読媒体 |
EP4443430A1 (en) * | 2021-12-03 | 2024-10-09 | Panasonic Intellectual Property Management Co., Ltd. | Voice registration device and voice registration method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252111A (ja) | 2003-02-19 | 2004-09-09 | Sony Corp | 学習装置及び学習方法並びにロボット装置 |
JP2006285882A (ja) | 2005-04-05 | 2006-10-19 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2007065766A (ja) | 2005-08-29 | 2007-03-15 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2008009914A (ja) | 2006-06-30 | 2008-01-17 | Canon Inc | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9189611B2 (en) * | 2013-02-07 | 2015-11-17 | Sony Corporation | Adapting content and monitoring user behavior based on facial recognition |
US9711148B1 (en) * | 2013-07-18 | 2017-07-18 | Google Inc. | Dual model speaker identification |
GB2517952B (en) * | 2013-09-05 | 2017-05-31 | Barclays Bank Plc | Biometric verification using predicted signatures |
US10395640B1 (en) * | 2014-07-23 | 2019-08-27 | Nvoq Incorporated | Systems and methods evaluating user audio profiles for continuous speech recognition |
US10446141B2 (en) * | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
JP6084654B2 (ja) | 2015-06-04 | 2017-02-22 | シャープ株式会社 | 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法 |
KR102420450B1 (ko) * | 2015-09-23 | 2022-07-14 | 삼성전자주식회사 | 음성인식장치, 음성인식방법 및 컴퓨터 판독가능 기록매체 |
JP6120927B2 (ja) | 2015-09-24 | 2017-04-26 | シャープ株式会社 | 対話システム、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム |
CN106570443A (zh) * | 2015-10-09 | 2017-04-19 | 芋头科技(杭州)有限公司 | 一种快速识别方法及家庭智能机器人 |
GB2552723A (en) * | 2016-08-03 | 2018-02-07 | Cirrus Logic Int Semiconductor Ltd | Speaker recognition |
US10339935B2 (en) * | 2017-06-19 | 2019-07-02 | Intel Corporation | Context-aware enrollment for text independent speaker recognition |
US20190147046A1 (en) * | 2017-11-16 | 2019-05-16 | Facebook, Inc. | Systems and methods for providing personalized context-aware information |
-
2019
- 2019-01-07 US US16/979,179 patent/US11992930B2/en active Active
- 2019-01-07 JP JP2020507366A patent/JP7205533B2/ja active Active
- 2019-01-07 EP EP19770488.5A patent/EP3770821A4/en not_active Withdrawn
- 2019-01-07 WO PCT/JP2019/000053 patent/WO2019181144A1/ja unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004252111A (ja) | 2003-02-19 | 2004-09-09 | Sony Corp | 学習装置及び学習方法並びにロボット装置 |
JP2006285882A (ja) | 2005-04-05 | 2006-10-19 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2007065766A (ja) | 2005-08-29 | 2007-03-15 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2008009914A (ja) | 2006-06-30 | 2008-01-17 | Canon Inc | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024191111A1 (ko) * | 2023-03-16 | 2024-09-19 | 유재천 | Ai 로봇 메디컬 핸드 장치 및 이를 이용한 자가 검사 방법 |
Also Published As
Publication number | Publication date |
---|---|
EP3770821A4 (en) | 2021-05-12 |
US20200406469A1 (en) | 2020-12-31 |
US11992930B2 (en) | 2024-05-28 |
WO2019181144A1 (ja) | 2019-09-26 |
JPWO2019181144A1 (ja) | 2021-04-01 |
EP3770821A1 (en) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7205533B2 (ja) | 情報処理装置及び情報処理方法、並びにロボット装置 | |
AU2018204246B2 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
Roy | Grounded spoken language acquisition: Experiments in word learning | |
JP7205148B2 (ja) | ロボット、制御方法、及び、プログラム | |
US20020198717A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
JP2003255989A (ja) | 学習装置及び学習方法並びにロボット装置 | |
JP2003255991A (ja) | 対話制御システム、対話制御方法及びロボット装置 | |
JP4250340B2 (ja) | 仮想ペット装置及びその制御プログラム記録媒体 | |
JP7416295B2 (ja) | ロボット、対話システム、情報処理方法及びプログラム | |
JP2006123136A (ja) | コミュニケーションロボット | |
JP4600736B2 (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP4587009B2 (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
JP4706893B2 (ja) | 音声認識装置および方法、並びに、プログラムおよび記録媒体 | |
JP2005335001A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
WO2020004213A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP4250635B2 (ja) | 仮想ペット装置及びその制御プログラム記録媒体 | |
JP2001154693A (ja) | ロボット制御装置およびロボット制御方法、並びに記録媒体 | |
JP2004286805A (ja) | 話者識別装置および話者識別方法、並びにプログラム | |
JP4635486B2 (ja) | 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法 | |
JP2004309523A (ja) | ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置 | |
JP2001212779A (ja) | 行動制御装置および行動制御方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221212 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7205533 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |