JP7273538B2 - 装置、方法、及びプログラム - Google Patents
装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP7273538B2 JP7273538B2 JP2019033141A JP2019033141A JP7273538B2 JP 7273538 B2 JP7273538 B2 JP 7273538B2 JP 2019033141 A JP2019033141 A JP 2019033141A JP 2019033141 A JP2019033141 A JP 2019033141A JP 7273538 B2 JP7273538 B2 JP 7273538B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- waiting
- contact
- location
- contacted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000007246 mechanism Effects 0.000 claims description 72
- 238000004891 communication Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims 8
- 238000012545 processing Methods 0.000 description 101
- 230000009471 action Effects 0.000 description 46
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 230000006399 behavior Effects 0.000 description 15
- 238000012790 confirmation Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 11
- 239000000284 extract Substances 0.000 description 8
- 230000008921 facial expression Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/028—Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/10—Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Computational Linguistics (AREA)
- Environmental & Geological Engineering (AREA)
- Toxicology (AREA)
- Computing Systems (AREA)
- Toys (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
前記装置を駆動する駆動機構と、プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものである。
本発明者は、音声認識によりユーザの発話を解釈し、ユーザと関わるロボットの開発をしている。このような音声認識を行うロボットにおいては、音声認識の精度とロボットの駆動とはトレードオフの関係がある。つまり、ロボットが駆動しながら音声認識を行う場合、ロボット自身のモータ音がノイズとなり、音声認識の精度が低下する。また、モータ音による音声認識精度の悪化を防止するために極力待機位置に留まるようにロボットを制御すると、待機位置によってはロボットはユーザからほとんど話しかけられなくなることもあり、これではユーザと関わるというロボットの本来の目的が達成できなくなる。
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものである。
前記駆動機構を制御して、前記決定された待機場所又は前記待機場所の周辺に、前記装置を待機させてもよい。
前記装置周辺の音を取得するマイクを更に備え、
前記プロセッサは、更に、
前記装置を待機させている際に、前記マイクを制御して、前記決定された待機場所において前記装置周辺の音を取得させ、
取得された音の音量が閾値を超える場合には、前記駆動機構を制御して、前記音量が前記閾値以下になる場所に向けて前記装置を駆動してもよい。
前記装置周辺の映像を取得するカメラを更に備え、
前記プロセッサは、更に、
前記装置を待機させている際に、前記駆動機構を制御して前記装置を旋回させることによって障害物と反対方向に前記カメラを向けてもよい。
前記プロセッサは、
前記スピーカを制御して、前記人間に対し、前記装置が充電するための充電器を第1の場所に設置するよう促す音声を出力させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所であってもよい。
前記プロセッサは、
前記ディスプレイを制御して、前記人間に対し、前記装置を充電するための充電器を第1の場所に設置するよう促す情報を表示させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所であってもよい。
前記駆動機構を制御して、前記人間に対し、前記装置を充電するための充電器を第1の場所に設置するよう促す仕草を前記装置に実行させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所であってもよい。
前記装置周辺の音を取得するマイクを更に備え、
前記取得された音に基づいて、前記人間が肯定的な反応を示したと判断される場合に、前記接触情報が更新されてもよい。
前記装置が前記人間に物理的に触れられていることを検知する第1センサを更に備え、
前記第1センサの検知結果に基づいて、前記人間が肯定的な反応を示したと判断される場合に、前記接触情報が更新されてもよい。
現在の時刻が属する時間帯において、前記装置と前記人間との間で最も多くの接触があった待機場所候補が、前記待機場所として決定されてもよい。
前記待機場所は、前記外部ネットワークを介して接続された外部サーバによって決定されてもよい。
まず、図1及び図2を参照しつつ、本開示の実施の形態に係るロボットの外観の詳細について説明する。図1は、本開示の第1の実施の形態に係るロボットの外観斜視図であり、図2は、本開示の第1の実施の形態に係るロボットの内部斜視図である。
次に、図12を参照して第2の実施の形態について説明する。図12は、本開示の第2の実施の形態に係るロボット1を示すブロック図である。なお、図12において図3と同一の構成要素については、同一の符号を付し、説明を省略する。また、本実施の形態において、第1の実施の形態と機能が異なる構成要素には参照符号の末尾にAの符号を付している。
101 カメラ
102 人物認識処理部
103 マイク
104 音声認識処理部
105 センサ
106 操作認識処理部
107 主制御部
108 位置情報管理部
109 接触情報管理部
110 メモリ
111 表示部
112 表示情報出力制御部
113 スピーカ
114 音声情報出力制御部
115 駆動機構
116 駆動機構制御部
1101 地図情報
1102 接触情報データベース
Claims (20)
- 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記接触情報に基づく前記待機場所の決定では、特定の時間帯及び特定の曜日の少なくとも一方に応じて予め定められた特定の人間に対応する前記接触情報が除外される、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記プロセッサは、更に、
前記駆動機構を制御して、前記決定された待機場所又は前記待機場所の周辺に、前記装置を待機させ、
前記装置は、
前記装置周辺の音を取得するマイクを更に備え、
前記プロセッサは、更に、
前記装置を待機させている際に、前記マイクを制御して、前記決定された待機場所において前記装置周辺の音を取得させ、
取得された音の音量が閾値を超える場合には、前記駆動機構を制御して、前記音量が前記閾値以下になる場所に向けて前記装置を駆動する、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記プロセッサは、更に、
前記駆動機構を制御して、前記決定された待機場所又は前記待機場所の周辺に、前記装置を待機させ、
前記装置は、
前記装置周辺の映像を取得するカメラを更に備え、
前記プロセッサは、更に、
前記装置を待機させている際に、前記駆動機構を制御して前記装置を旋回させることによって障害物と反対方向に前記カメラを向ける、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
音声を出力するスピーカを更に備え、
前記プロセッサは、
前記スピーカを制御して、前記人間に対し、前記装置が充電するための充電器を第1の場所に設置するよう促す音声を出力させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所である、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
情報を表示するディスプレイを更に備え、
前記プロセッサは、
前記ディスプレイを制御して、前記人間に対し、前記装置を充電するための充電器を第1の場所に設置するよう促す情報を表示させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所である、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記プロセッサは、
前記駆動機構を制御して、前記人間に対し、前記装置を充電するための充電器を第1の場所に設置するよう促す仕草を前記装置に実行させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所である、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記装置は、
前記装置周辺の音を取得するマイクを更に備え、
前記取得された音に基づいて、前記人間が肯定的な反応を示したと判断される場合に、前記接触情報が更新される、
装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置であって、
前記装置を駆動する駆動機構と、
プロセッサと、を備え、
前記プロセッサは、前記駆動機構を制御して、前記装置が前記人間と接触するための待機場所に向けて、前記装置を駆動させ、
前記待機場所は、前記装置が前記人間と接触した際の履歴である接触情報に基づいて決定されたものであり、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記装置は、
前記装置が前記人間に物理的に触れられていることを検知する第1センサを更に備え、
前記第1センサの検知結果に基づいて、前記人間が肯定的な反応を示したと判断される場合に、前記接触情報が更新される、
装置。 - 前記待機場所は、前記プロセッサによって決定される、
請求項1~8のいずれか一項に記載の装置。 - 前記装置は、外部ネットワークに接続される通信回路を更に備え、
前記待機場所は、前記外部ネットワークを介して接続された外部サーバによって決定される、
請求項1~8のいずれか一項に記載の装置。 - 前記装置は、ロボットである、
請求項1~10のいずれか1項に記載の装置。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記接触情報に基づく前記待機場所の決定では、特定の時間帯及び特定の曜日の少なくとも一方に応じて予め定められた特定の人間に対応する前記接触情報が除外される、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
更に、前記駆動機構を制御して、前記決定された待機場所又は前記待機場所の周辺に、前記装置を待機させ、
更に、前記装置を待機させている際に、前記装置のマイクを制御して、前記決定された待機場所において前記装置周辺の音を取得させ、
取得された音の音量が閾値を超える場合には、前記駆動機構を制御して、前記音量が前記閾値以下になる場所に向けて前記装置を駆動する、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記駆動機構を制御して、前記決定された待機場所又は前記待機場所の周辺に、前記装置を待機させ、
前記装置を待機させている際に、前記駆動機構を制御して前記装置を旋回させることによって障害物と反対方向に前記装置のカメラを向ける、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記装置のスピーカを制御して、前記人間に対し、前記装置が充電するための充電器を第1の場所に設置するよう促す音声を出力させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所である、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記装置のディスプレイを制御して、前記人間に対し、前記装置を充電するための充電器を第1の場所に設置するよう促す情報を表示させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所である、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記駆動機構を制御して、前記人間に対し、前記装置を充電するための充電器を第1の場所に設置するよう促す仕草を前記装置に実行させ、
前記第1の場所は、前記接触情報の中で、前記装置が前記人間と接触した時間が最も長い場所である、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記装置のマイクにより取得された音に基づいて、前記人間が肯定的な反応を示したと判断される場合に、前記接触情報が更新される、
方法。 - 人間の音声を音声認識することによって前記人間と意思疎通する装置を待機させる方法であって、
前記装置が前記人間と接触した際の履歴である接触情報に基づいて、前記装置が前記人間と接触するための待機場所を決定し、
駆動機構を制御して、前記決定された待機場所に向けて、前記装置を駆動させ、
前記接触情報は、前記装置が前記人間と接触した時刻、前記装置が前記人間と接触した時間帯、前記装置が前記人間と接触した日付、及び前記装置が前記人間と接触した曜日の少なくともいずれか一つを含む時間情報と、前記装置が前記人間と接触した位置、及び前記装置が前記人間と接触した際に待機していた待機場所に関する待機場所情報の少なくともいずれか一つを含む場所情報とが対応付けられたものであり、
前記待機場所は、現在の時刻、現在の時間帯、現在の日付、及び現在の曜日の少なくともいずれか一つに対応する前記接触情報に含まれる前記場所情報に基づき、決定されたものであり、
前記装置の第1センサの検知結果に基づいて、前記人間が肯定的な反応を示したと判断される場合に、前記接触情報が更新され、前記第1センサは、前記装置が前記人間に物理的に触れられていることを検知するためのものである、
方法。 - 請求項12~19のいずれか1項に記載の方法をコンピュータに実行するためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019033141A JP7273538B2 (ja) | 2019-02-26 | 2019-02-26 | 装置、方法、及びプログラム |
US16/736,866 US11426879B2 (en) | 2019-02-26 | 2020-01-08 | Device, method, and program |
CN202010063345.7A CN111613216A (zh) | 2019-02-26 | 2020-01-20 | 意思沟通装置以及意思沟通方法 |
JP2023073690A JP2023101501A (ja) | 2019-02-26 | 2023-04-27 | 装置、方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019033141A JP7273538B2 (ja) | 2019-02-26 | 2019-02-26 | 装置、方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023073690A Division JP2023101501A (ja) | 2019-02-26 | 2023-04-27 | 装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020137549A JP2020137549A (ja) | 2020-09-03 |
JP7273538B2 true JP7273538B2 (ja) | 2023-05-15 |
Family
ID=72141524
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019033141A Active JP7273538B2 (ja) | 2019-02-26 | 2019-02-26 | 装置、方法、及びプログラム |
JP2023073690A Pending JP2023101501A (ja) | 2019-02-26 | 2023-04-27 | 装置、方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023073690A Pending JP2023101501A (ja) | 2019-02-26 | 2023-04-27 | 装置、方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11426879B2 (ja) |
JP (2) | JP7273538B2 (ja) |
CN (1) | CN111613216A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7339124B2 (ja) * | 2019-02-26 | 2023-09-05 | 株式会社Preferred Networks | 制御装置、システム及び制御方法 |
JP7480698B2 (ja) * | 2020-12-24 | 2024-05-10 | トヨタ自動車株式会社 | 自律移動システム、自律移動方法及び自律移動プログラム |
USD979566S1 (en) * | 2021-05-13 | 2023-02-28 | Ambit Microsystems (Shanghai) Ltd. | Sensor device combined with digital assistant |
USD1022901S1 (en) * | 2023-05-16 | 2024-04-16 | Gangcai Zhou | Charging case with slidable cover |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156578A (ja) | 2005-11-30 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | ロボットの待機場所決定方法 |
JP4682217B2 (ja) | 2007-03-07 | 2011-05-11 | パナソニック株式会社 | 行動制御装置、方法、プログラム |
JP2017200531A (ja) | 2016-05-06 | 2017-11-09 | パナソニックIpマネジメント株式会社 | ロボット |
WO2018052001A1 (ja) | 2016-09-16 | 2018-03-22 | Groove X株式会社 | ロボットを収容して充電する充電ステーション |
JP2019010728A (ja) | 2016-03-28 | 2019-01-24 | Groove X株式会社 | お出迎え行動する自律行動型ロボット |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8996167B2 (en) * | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
US9643779B2 (en) * | 2014-03-31 | 2017-05-09 | Panasonic Intellectual Property Corporation Of America | Article management system and transport robot |
JP6624368B2 (ja) * | 2014-09-30 | 2019-12-25 | パナソニックIpマネジメント株式会社 | 接客モニタリングシステム及び接客モニタリング方法 |
US10179407B2 (en) * | 2014-11-16 | 2019-01-15 | Robologics Ltd. | Dynamic multi-sensor and multi-robot interface system |
US9801517B2 (en) * | 2015-03-06 | 2017-10-31 | Wal-Mart Stores, Inc. | Shopping facility assistance object detection systems, devices and methods |
JP6710562B2 (ja) * | 2016-03-29 | 2020-06-17 | 本田技研工業株式会社 | 受付システム及び受付方法 |
JP6738555B2 (ja) * | 2016-05-23 | 2020-08-12 | 富士ゼロックス株式会社 | ロボット制御システム |
US11151992B2 (en) * | 2017-04-06 | 2021-10-19 | AIBrain Corporation | Context aware interactive robot |
JP2019005842A (ja) * | 2017-06-23 | 2019-01-17 | カシオ計算機株式会社 | ロボット、ロボットの制御方法及びプログラム |
US10569420B1 (en) * | 2017-06-23 | 2020-02-25 | X Development Llc | Interfacing with autonomous devices |
US10898999B1 (en) * | 2017-09-18 | 2021-01-26 | X Development Llc | Selective human-robot interaction |
US11145294B2 (en) * | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
-
2019
- 2019-02-26 JP JP2019033141A patent/JP7273538B2/ja active Active
-
2020
- 2020-01-08 US US16/736,866 patent/US11426879B2/en active Active
- 2020-01-20 CN CN202010063345.7A patent/CN111613216A/zh active Pending
-
2023
- 2023-04-27 JP JP2023073690A patent/JP2023101501A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007156578A (ja) | 2005-11-30 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | ロボットの待機場所決定方法 |
JP4682217B2 (ja) | 2007-03-07 | 2011-05-11 | パナソニック株式会社 | 行動制御装置、方法、プログラム |
JP2019010728A (ja) | 2016-03-28 | 2019-01-24 | Groove X株式会社 | お出迎え行動する自律行動型ロボット |
JP2017200531A (ja) | 2016-05-06 | 2017-11-09 | パナソニックIpマネジメント株式会社 | ロボット |
WO2018052001A1 (ja) | 2016-09-16 | 2018-03-22 | Groove X株式会社 | ロボットを収容して充電する充電ステーション |
Also Published As
Publication number | Publication date |
---|---|
US20200269436A1 (en) | 2020-08-27 |
CN111613216A (zh) | 2020-09-01 |
JP2020137549A (ja) | 2020-09-03 |
JP2023101501A (ja) | 2023-07-21 |
US11426879B2 (en) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7273538B2 (ja) | 装置、方法、及びプログラム | |
US8326456B2 (en) | Behavior control apparatus, method, and program | |
JP4595436B2 (ja) | ロボット、その制御方法及び制御用プログラム | |
US8706827B1 (en) | Customized speech generation | |
JP4976903B2 (ja) | ロボット | |
CN110900617A (zh) | 机器人及其操作方法 | |
KR20140053149A (ko) | 피호출자 검색 기법 | |
CN110663021A (zh) | 关注出席用户的方法和系统 | |
JP7273566B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
JP7109207B2 (ja) | 相互作用装置、相互作用方法、相互作用プログラム及びロボット | |
CN210155626U (zh) | 信息处理装置 | |
KR20070029794A (ko) | 유저와 시스템 사이에 통신을 하기 위한 방법 및 시스템 | |
JP2007222968A (ja) | コミュニケーションロボット | |
US11065769B2 (en) | Robot, method for operating the same, and server connected thereto | |
CN111163906A (zh) | 能够移动的电子设备及其操作方法 | |
JPWO2016181670A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20210383806A1 (en) | User input processing method and electronic device supporting same | |
US20220016757A1 (en) | Information processing device, information processing method, and program | |
US10569420B1 (en) | Interfacing with autonomous devices | |
US11511410B2 (en) | Artificial intelligence (AI) robot and control method thereof | |
KR102519599B1 (ko) | 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법 | |
CN112717409B (zh) | 虚拟车辆控制方法、装置、计算机设备及存储介质 | |
JP2023180943A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11936718B2 (en) | Information processing device and information processing method | |
CN111919250A (zh) | 传达非语言提示的智能助理设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200605 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7273538 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |