JP6494062B2 - 音源の方向を認識する自律行動型ロボット - Google Patents
音源の方向を認識する自律行動型ロボット Download PDFInfo
- Publication number
- JP6494062B2 JP6494062B2 JP2018537177A JP2018537177A JP6494062B2 JP 6494062 B2 JP6494062 B2 JP 6494062B2 JP 2018537177 A JP2018537177 A JP 2018537177A JP 2018537177 A JP2018537177 A JP 2018537177A JP 6494062 B2 JP6494062 B2 JP 6494062B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- sound
- sound source
- motion
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 claims description 152
- 210000003128 head Anatomy 0.000 claims description 43
- 230000007246 mechanism Effects 0.000 claims description 32
- 230000004044 response Effects 0.000 claims description 28
- 210000001508 eye Anatomy 0.000 claims description 24
- 210000001747 pupil Anatomy 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 9
- 230000009471 action Effects 0.000 description 54
- 230000006399 behavior Effects 0.000 description 48
- 238000000034 method Methods 0.000 description 38
- 230000008451 emotion Effects 0.000 description 36
- 230000007613 environmental effect Effects 0.000 description 35
- 238000012545 processing Methods 0.000 description 33
- 238000003384 imaging method Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 22
- 238000005259 measurement Methods 0.000 description 21
- 230000001755 vocal effect Effects 0.000 description 21
- 238000007726 management method Methods 0.000 description 20
- 230000003542 behavioural effect Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 17
- 238000013500 data storage Methods 0.000 description 17
- 238000003860 storage Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 14
- 238000010438 heat treatment Methods 0.000 description 12
- 241000282414 Homo sapiens Species 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 238000010191 image analysis Methods 0.000 description 10
- 241000282412 Homo Species 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 206010037180 Psychiatric symptoms Diseases 0.000 description 8
- 238000009826 distribution Methods 0.000 description 8
- 235000019645 odor Nutrition 0.000 description 8
- 241000282472 Canis lupus familiaris Species 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 7
- 238000013459 approach Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000007423 decrease Effects 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 238000007621 cluster analysis Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000007935 neutral effect Effects 0.000 description 4
- 230000004791 biological behavior Effects 0.000 description 3
- 230000036760 body temperature Effects 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 238000009423 ventilation Methods 0.000 description 3
- 206010063659 Aversion Diseases 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 206010048909 Boredom Diseases 0.000 description 1
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010039740 Screaming Diseases 0.000 description 1
- 206010041243 Social avoidant behaviour Diseases 0.000 description 1
- 229920006311 Urethane elastomer Polymers 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000009529 body temperature measurement Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002304 perfume Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000010255 response to auditory stimulus Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 239000007779 soft material Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/23—Direction finding using a sum-delay beam-former
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Otolaryngology (AREA)
- General Health & Medical Sciences (AREA)
- Manipulator (AREA)
- Toys (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Description
認識部は、マイクロフォンアレイにより複数の音源方向が検出されたとき、それぞれの音源方向が撮影された画像から発音体をサーチする。
認識部は、マイクロフォンアレイにより複数の音源方向が検出されたとき、それぞれの音源方向の温度分布に基づいて発熱体をサーチする。
認識部は、マイクロフォンにより検出された音の特徴に対応づけられる物体を特定し、動作制御部は、物体の方向にロボットの頭部を向けるモーションを選択する。
本実施形態におけるロボット100は、外部環境および内部状態に基づいて行動や仕草(ジェスチャー)を決定する自律行動型のロボットである。外部環境は、カメラやサーモセンサなど各種のセンサにより認識される。内部状態はロボット100の感情を表現するさまざまなパラメータとして定量化される。これらについては後述する。
ロボット100の頭部にはツノ112が取り付けられる。上述のようにロボット100は軽量であるため、ユーザはツノ112をつかむことでロボット100を持ち上げることも可能である。
図2に示すように、ロボット100のボディ104は、ベースフレーム308、本体フレーム310、一対の樹脂製のホイールカバー312および外皮314を含む。ベースフレーム308は、金属からなり、ボディ104の軸芯を構成するとともに内部機構を支持する。ベースフレーム308は、アッパープレート332とロアプレート334とを複数のサイドプレート336により上下に連結して構成される。複数のサイドプレート336間には通気が可能となるよう、十分な間隔が設けられる。ベースフレーム308の内方には、バッテリー118、制御回路342および各種アクチュエータが収容されている。
ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。家屋内にはあらかじめ複数の外部センサ114(外部センサ114a、114b、・・・、114n)が設置される。外部センサ114は、家屋の壁面に固定されてもよいし、床に載置されてもよい。サーバ200には、外部センサ114の位置座標が登録される。位置座標は、ロボット100の行動範囲として想定される家屋内においてx,y座標として定義される。
外部センサ114はロボット100の感覚器を補強するためのものであり、サーバ200はロボット100の頭脳を補強するためのものである。
もちろん、ロボット100が自らの位置座標を定期的にサーバ200に送信する方式でもよい。
感情マップ116は、サーバ200に格納されるデータテーブルである。ロボット100は、感情マップ116にしたがって行動選択する。図4に示す感情マップ116は、ロボット100の場所に対する好悪感情の大きさを示す。感情マップ116のx軸とy軸は、二次元空間座標を示す。z軸は、好悪感情の大きさを示す。z値が正値のときにはその場所に対する好感が高く、z値が負値のときにはその場所を嫌悪していることを示す。
ロボット100がどのような場所を好むかという定義は任意であるが、一般的には、小さな子どもや犬や猫などの小動物が好む場所を好意地点として設定することが望ましい。
ロボット100がどのような場所を嫌うかという定義も任意であるが、一般的には、小さな子どもや犬や猫などの小動物が怖がる場所を嫌悪地点として設定することが望ましい。
図4に示す感情マップ116が与えられた場合、ロボット100は好意地点(座標P1)に引き寄せられる方向、嫌悪地点(座標P2)から離れる方向に移動する。
ロボット100は、内部センサ128、通信機126、記憶装置124、プロセッサ122、駆動機構120およびバッテリー118を含む。駆動機構120は、上述した車輪駆動機構370を含む。プロセッサ122と記憶装置124は、制御回路342に含まれる。各ユニットは電源線130および信号線132により互いに接続される。バッテリー118は、電源線130を介して各ユニットに電力を供給する。各ユニットは信号線132により制御信号を送受する。バッテリー118は、リチウムイオン二次電池であり、ロボット100の動力源である。
上述のように、ロボットシステム300は、ロボット100、サーバ200および複数の外部センサ114を含む。ロボット100およびサーバ200の各構成要素は、CPU(Central Processing Unit)および各種コプロセッサなどの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
ロボット100の機能の一部はサーバ200により実現されてもよいし、サーバ200の機能の一部または全部はロボット100により実現されてもよい。
サーバ200は、通信部204、データ処理部202およびデータ格納部206を含む。
通信部204は、外部センサ114およびロボット100との通信処理を担当する。データ格納部206は各種データを格納する。データ処理部202は、通信部204により取得されたデータおよびデータ格納部206に格納されるデータに基づいて各種処理を実行する。データ処理部202は、通信部204およびデータ格納部206のインタフェースとしても機能する。
ロボット100は、複数の動作パターン(モーション)を有する。手を震わせる、蛇行しながらオーナーに近づく、首をかしげたままオーナーを見つめる、などさまざまなモーションが定義される。
以下、いつ、どのモーションを選ぶか、モーションを実現する上での各アクチュエータの出力調整など、ロボット100の行動制御にかかわる設定のことを「行動特性」と総称する。ロボット100の行動特性は、モーション選択アルゴリズム、モーションの選択確率、モーションファイル等により定義される。
ロボット100は、大量の画像情報やその他のセンシング情報から得られる身体的特徴および行動的特徴に基づいて、高い頻度で出現するユーザを「オーナー」としてクラスタリングする。
本実施形態においては、身体的特徴と行動的特徴からユーザをクラスタリングし、ディープラーニング(多層型のニューラルネットワーク)によってユーザを識別する。詳細は後述する。
位置管理部208は、ロボット100の位置座標を、図3を用いて説明した方法にて特定する。位置管理部208はユーザの位置座標もリアルタイムで追跡してもよい。
行動マップAを行動マップBの5倍重視するときには、座標R1の合計z値は4×5−1=19、座標R2の合計z値は3×5+3=18であるから、ロボット100は座標R1の方向に向かう。
なお、人物認識部214は、人物以外の移動物体、たとえば、ペットである猫や犬についても特徴抽出を行う。
快・不快行為は、ユーザの応対行為が、生物として心地よいものであるか不快なものであるかにより判別される。たとえば、抱っこされることはロボット100にとって快行為であり、蹴られることはロボット100にとって不快行為である。肯定・否定反応は、ユーザの応対行為が、ユーザの快感情を示すものか不快感情を示すものであるかにより判別される。たとえば、抱っこされることはユーザの快感情を示す肯定反応であり、蹴られることはユーザの不快感情を示す否定反応である。
行動マップに移動目標地点や移動ルートが決定され、後述の各種イベントによりモーションが選択される。
ロボット100は、内部センサ128、通信部142、データ処理部136、データ格納部148および駆動機構120を含む。
内部センサ128は、各種センサの集合体である。内部センサ128は、マイクロフォンアレイ404、カメラ410、温度センサ406および形状測定センサ408を含む。マイクロフォンアレイ404は、複数のマイクロフォンをつなぎ合わせたユニットであり、音を検出する音声センサである。カメラ410は外部を撮影するデバイスである。マイクロフォンアレイ404は、音を検出し、音源の方向を検出可能なデバイスであればよい。カメラ410は、全天球カメラ400と高解像度カメラ402を含む。温度センサ406は、外部環境の温度分布を検出し、画像化する。形状測定センサ408は、プロジェクタから近赤外線を照射し、近赤外線カメラにて近赤外線の反射光を検出することにより、対象物体の深度、ひいては、凹凸形状を読み取る赤外線深度センサである。
ロボット100のモーション格納部160には、サーバ200のモーション格納部232から各種モーションファイルがダウンロードされる。モーションは、モーションIDによって識別される。前輪102を収容して着座する、手106を持ち上げる、2つの前輪102を逆回転させることで、あるいは、片方の前輪102だけを回転させることでロボット100を回転行動させる、前輪102を収納した状態で前輪102を回転させることで震える、ユーザから離れるときにいったん停止して振り返る、などのさまざまなモーションを表現するために、各種アクチュエータ(駆動機構120)の動作タイミング、動作時間、動作方向などがモーションファイルにおいて時系列定義される。
ロボット100の動作制御部150は、サーバ200の動作制御部222と協働してロボット100のモーションを決める。一部のモーションについてはサーバ200で決定し、他のモーションについてはロボット100で決定してもよい。また、ロボット100がモーションを決定するが、ロボット100の処理負荷が高いときにはサーバ200がモーションを決定するとしてもよい。サーバ200においてベースとなるモーションを決定し、ロボット100において追加のモーションを決定してもよい。モーションの決定処理をサーバ200およびロボット100においてどのように分担するかはロボットシステム300の仕様に応じて設計すればよい。
認識部156は、カメラ410および形状測定センサ408により定期的に周囲を撮像し、人やペットなどの移動物体を検出する。これらの特徴はサーバ200に送信され、サーバ200の人物認識部214は移動物体の身体的特徴を抽出する。また、ユーザの匂いやユーザの声も検出する。匂いや音(声)は既知の方法にて複数種類に分類される。
以上は、簡単な設例であるが、上述の方法により、父親に対応する第1のプロファイルと母親に対応する第2のプロファイルが形成され、この家には少なくとも2人のユーザ(オーナー)がいることをロボット100は認識する。
このとき、サーバ200の人物認識部214は、ロボット100から得られる画像等のセンシング情報から特徴抽出を行い、ディーブラーニング(多層型ニューラルネットワーク)により、ロボット100の近くにいる移動物体がどのクラスタに該当するかを判断する。たとえば、ひげが生えている移動物体を検出したとき、この移動物体は父親である確率が高い。この移動物体が早朝行動していれば、父親に該当することはいっそう確実である。一方、メガネをかけている移動物体を検出したときには、この移動物体は母親である可能性もある。この移動物体にひげが生えていれば、母親ではなく父親でもないので、クラスタ分析されていない新しい人物であると判定する。
移動物体(ユーザ)からどのような行為をされるかによってそのユーザに対する親密度が変化する。
(1)親密度が非常に高いクラスタ
ロボット100は、ユーザに近づき(以下、「近接行動」とよぶ)、かつ、人に好意を示す仕草としてあらかじめ定義される愛情仕草を行うことで親愛の情を強く表現する。
(2)親密度が比較的高いクラスタ
ロボット100は、近接行動のみを行う。
(3)親密度が比較的低いクラスタ
ロボット100は特段のアクションを行わない。
(4)親密度が特に低いクラスタ
ロボット100は、離脱行動を行う。
ロボット100の頭部には、マイクロフォンアレイ404が設置される。マイクロフォンアレイ404は、複数のマイクロフォン412(マイクロフォン412a〜412h)を含む。複数のマイクロフォン412が形成する面が床面に平行となるようにマイクロフォンアレイ404はロボット100の頭部フレーム316に内蔵される。
本実施形態におけるロボット100は、マイクロフォンアレイ404に加えて、カメラ410により音源414を確認する。図8においては、2つの音源414(音源414aと音源414b)がマイクロフォンアレイ404により検出された状況を示している。天球撮像範囲418は、全天球カメラ400による撮像範囲である。全天球カメラ400は、ロボット100の上方半球略全域を一度に撮像可能である。ロボット100の認識部156は、天球撮像範囲418のうち音源414aの方向を含む所定範囲である撮像領域420aの画像を分析する。
以下、発声体の検出を対象として説明する。
このような制御方法によれば、音に反応して頭を向け、その方向に発声体(人間など)を確認したときに体ごと向き直るという行動特性が実現される。
一般的には、成人男性の声の周波数帯域は60〜260(Hz)程度、成人女性の声の周波数帯域は120〜520(Hz)程度といわれる。したがって、50〜600(Hz)程度の周波数帯域をフィルタリングしても、成人の声を認識可能である。
図10に示すフローチャートは、マイクロフォンアレイ404が集音したときに実行される。認識部156はマイクロフォンアレイ404に含まれる各マイクロフォン412の集音した音声情報に基づいて1以上の音源方向を検出する(S10)。次に、認識部156(または音声分類部174)は音が特殊環境音条件を満たす特徴を備えるか否かに基づいて特定環境音か否かを判定する(S12)。マイクロフォンアレイ404に含まれる複数のマイクロフォン412が集音した音声情報の平均値に基づいて判定してもよいし、所定個数以上のマイクロフォン412が特定環境音条件を満たす音を検出したとき、特定環境音であると判定してもよい。特定環境音のときには(S12のY)、動作制御部150は特定環境音に対応するモーション(リアクション行動)を選択し、駆動機構120にそのモーションを実行させる(S14)。上述したように、特定環境音の種類に応じて多様なモーションが選択される。
図10においては、音源が発声体であるか否かを画像分析により判定している。また、画像分析に際しては口唇のチェックのほか、温度センサ406や形状測定センサ408によるセンシング情報を追加して判定精度を高めている。図11に示す変形例1においては、画像分析に頼らず、温度分析に基づいて発声体を特定する方法について説明する。S10〜S18,S24の処理内容は図10に関連して説明した内容と同様である。
図12に示す変形例2においては、全天球カメラ400および高解像度カメラ402によりあらかじめ発声体を追跡(トラッキング)しておき、音が発生したときに追跡対象となっている1以上の発声体の中から発声源を特定する。具体的には、全天球カメラ400により天球撮像範囲418を定期的かつ継続的に撮像し、認識部156はオーナーやペットなどの発声体の特徴を備えるオブジェクトが存在する位置を常時追跡する。たとえば、ロボット100から向かって1時の方向(前方やや右方向)に「父親」が存在し、9時の方向(左方向)に「母親」が存在しているとする。より厳密には、「父親」の身体的・行動的特徴を備える第1クラスタと「母親」の身体的・行動的特徴を備える第2クラスタそれぞれの方向を追跡する。
S10〜S14,S24の処理内容は図10に関連して説明した内容と同様である。
生物と同様、ロボット100は音という外部のイベントに応じて行動を変化させる。本実施形態においては、マイクロフォンアレイ404により音源方向を検出し、カメラ410,温度センサ406,形状測定センサ408などの他のセンサにより音源方向を確認している。このため、検知された音がどこで発生したのか、特に、自分に呼びかけているオーナーがどこにいるのかを確実に認識しやすくなる。
この場合にも、マイクロフォンアレイ404により音源方向を検出したときにはロボット100はその検知方向に頭部を向け、音源を画像等により確認したときには音源の方向に胴部を向けるとしてもよい。
本実施形態においては、マイクロフォンアレイ404により1以上の発音体を特定し、画像認識等により真の発声源(音源)を特定するとして説明した。
マイクロフォンアレイ404および認識部156は、唯一の音源方向とその音源方向に対する信頼度を特定してもよい。マイクロフォンアレイ404の検出信号により、1つの音源方向を特定した上でその信頼度を計算する手法は既知である。たとえば、認識部156は、音量が大きいときほど音源方向に対する信頼度を高く設定してもよい。また、同時に複数の発音体が特定されたときには、音量が大きい方の発音体が存在する方向を音源方向と特定する代わりに、各発音体から検出された音量比に応じて信頼度を計算してもよい。たとえば、音源方向D1からの音量と音源方向D2からの音量の比率が4:1であるとき、認識部156は「音源方向D1・信頼度80%(=4/(4+1)×100)」として算出してもよい。
ロボット100の目110は、眼画像176を表示させるディスプレイとして形成される。瞳制御部は、瞳画像178と周縁画像168を含む眼画像176を生成する。瞳制御部は、また、眼画像176を動画表示させる。具体的には、瞳画像178を動かすことでロボット100の視線を表現する。また、所定のタイミングで瞬き動作を実行する。瞳制御部は、さまざまな動作パターンにしたがって眼画像176の多様な動きを表現する。目110のモニタは、人間の眼球と同様、曲面形状を有することが望ましい。
音声と、その音声の「印象」を対応づけてもよい。具体的には、認識部212(または認識部156)は、ある音声が検出されてから所定時間以内、たとえば、5秒位内に発生したイベントに応じて、その音声を「ポジティブ音」または「ネガティブ音」に分類してもよい。まず、あらかじめ、ポジティブ・イベントとネガティブ・イベントを登録しておく。ポジティブ・イベントとは、撫でられる、抱っこされるなどの快行為として定義される。ポジティブ・イベントは、親密度が所定値以上のユーザ(好きな人)を視認することであってもよい。ある音声パターンS1を検出してから所定時間以内にポジティブ・イベントが検出されたとき、認識部212は音声パターンS1を「ポジティブ音」として登録する。
マイクロフォンアレイ404は、常時、外部の音を検出する。認識部156は、音声を検出するごとにカメラ410を利用して音源方向(発声源)を特定してもよいが、このような処理を継続することは処理負荷が大きくなる可能性もある。追加例においては、プロセッサ122の計算能力を有効活用し、かつ、節電のため、ロボット100は外部音の多くを無視する。認識部156は、所定の「注意条件」が成立したとき、カメラ410または温度センサ406を利用して音源方向を正確に特定する。
Claims (11)
- ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
音源方向を検出するマイクロフォンアレイと、
ロボット周辺の略全域を同時に撮影可能な第1のカメラと、
前記マイクロフォンアレイにより検出された音源方向の画像において所定の特徴を有する発音体が検出されたとき、前記発音体を音源として特定する認識部と、を備え、
前記動作制御部は、前記マイクロフォンアレイにより複数の発音体が検出されたときには、それぞれの発音体に対応づけられる親密度に基づいて前記複数の発音体それぞれを対象としたリアクションの実行順位を決定することを特徴とする自律行動型ロボット。 - 前記動作制御部は、前記複数の発音体のうち、最も親密度の高い発音体に対応するリアクションを最初の実行対象として選択することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記動作制御部は、音声が検出されるとき、音源方向にロボットの頭部を向けるモーションを選択することを特徴とする請求項1に記載の自律行動型ロボット。
- 前記動作制御部は、画像において発音体を特定したときには、発音体にロボットの胴部を向けるモーションを選択することを特徴とする請求項1に記載の自律行動型ロボット。
- 検出された音声を音声特徴に基づいて分類する音声分類部、を更に備え、
前記動作制御部は、検出された音声が所定の分類に属するときには、前記検出された音声に対する反応を示す所定のモーションを選択することを特徴とする請求項1に記載の自律行動型ロボット。 - 前記認識部は、発音体の口唇動作を検出し、音声検出期間の画像において発音体の口唇動作が検出されたことを条件として、前記発音体を音源として認識することを特徴とする請求項1に記載の自律行動型ロボット。
- 温度センサ、を更に備え、
前記認識部は、前記発音体が所定の温度範囲にあることを条件として、前記発音体を音源として認識することを特徴とする請求項1に記載の自律行動型ロボット。 - 形状測定センサ、を更に備え、
前記認識部は、前記発音体が所定の形状を有することを条件として、前記発音体を音源として認識することを特徴とする請求項1に記載の自律行動型ロボット。 - 前記認識部は、ロボットの頭部を音源方向に向けて画像から発音体をサーチしているときに特定ワードの発話が検出されたときには、他の音源方向を撮影した画像を対象として発音体をサーチすることを特徴とする請求項3に記載の自律行動型ロボット。
- ロボットの眼に表示させる瞳画像を変化させる瞳制御部、を更に備え、
瞳制御部は、前記瞳画像を音源方向に移動させることを特徴とする請求項1に記載の自律行動型ロボット。 - ロボットのモーションを選択する動作制御部と、
前記動作制御部により選択されたモーションを実行する駆動機構と、
音源方向を検出するマイクロフォンアレイと、
ロボット周辺の略全域を同時に撮影可能な第1のカメラと、
前記第1のカメラよりも高解像度にて特定方向を撮影可能な第2のカメラと、
前記マイクロフォンアレイにより検出された音源方向のうち、前記第1のカメラにより撮影された画像において所定の特徴を有する発音体が存在する方向を検出し、検出された方向を前記第2のカメラにより撮影し、前記第2のカメラによる画像に基づいて発音体を音源として特定する認識部と、を備えることを特徴とする自律行動型ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019037156A JP7320239B2 (ja) | 2016-08-29 | 2019-03-01 | 音源の方向を認識するロボット |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016166976 | 2016-08-29 | ||
JP2016166976 | 2016-08-29 | ||
PCT/JP2017/030063 WO2018043235A1 (ja) | 2016-08-29 | 2017-08-23 | 音源の方向を認識する自律行動型ロボット |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019037156A Division JP7320239B2 (ja) | 2016-08-29 | 2019-03-01 | 音源の方向を認識するロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018043235A1 JPWO2018043235A1 (ja) | 2018-12-20 |
JP6494062B2 true JP6494062B2 (ja) | 2019-04-03 |
Family
ID=61300816
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018537177A Active JP6494062B2 (ja) | 2016-08-29 | 2017-08-23 | 音源の方向を認識する自律行動型ロボット |
JP2019037156A Active JP7320239B2 (ja) | 2016-08-29 | 2019-03-01 | 音源の方向を認識するロボット |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019037156A Active JP7320239B2 (ja) | 2016-08-29 | 2019-03-01 | 音源の方向を認識するロボット |
Country Status (6)
Country | Link |
---|---|
US (1) | US11376740B2 (ja) |
JP (2) | JP6494062B2 (ja) |
CN (1) | CN109644303B (ja) |
DE (1) | DE112017004363T5 (ja) |
GB (1) | GB2567600B (ja) |
WO (1) | WO2018043235A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4159387A1 (en) * | 2021-09-29 | 2023-04-05 | Casio Computer Co., Ltd. | Robot, robot control method, and program |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016072116A1 (ja) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | 制御システム、制御方法、および記憶媒体 |
US10427305B2 (en) * | 2016-07-21 | 2019-10-01 | Autodesk, Inc. | Robotic camera control via motion capture |
CN108600911B (zh) | 2018-03-30 | 2021-05-18 | 联想(北京)有限公司 | 一种输出方法及电子设备 |
CN108762104A (zh) * | 2018-05-17 | 2018-11-06 | 江西午诺科技有限公司 | 音箱控制方法、装置、可读存储介质及移动终端 |
JP7187007B2 (ja) * | 2018-08-03 | 2022-12-12 | 学校法人麻布獣医学園 | 動物個体間の親和度を推定する方法およびシステム |
KR20200093094A (ko) * | 2019-01-10 | 2020-08-05 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
JP2020150360A (ja) * | 2019-03-12 | 2020-09-17 | パナソニックi−PROセンシングソリューションズ株式会社 | ウェアラブルカメラおよび映像データ生成方法 |
US11320804B2 (en) * | 2019-04-22 | 2022-05-03 | Lg Electronics Inc. | Multi information provider system of guidance robot and method thereof |
CN110238844A (zh) * | 2019-04-30 | 2019-09-17 | 北京云迹科技有限公司 | 机器人转身处理方法及装置 |
CN110428806B (zh) * | 2019-06-03 | 2023-02-24 | 交互未来(北京)科技有限公司 | 基于麦克风信号的语音交互唤醒电子设备、方法和介质 |
JP2021021852A (ja) * | 2019-07-29 | 2021-02-18 | シャープ株式会社 | 音声認識装置、電子機器、制御方法および制御プログラム |
US20210035047A1 (en) * | 2019-08-02 | 2021-02-04 | Capital One Services, Llc | Utilizing a machine learning model to determine anonymized avatars for employment interviews |
CN110335607B (zh) * | 2019-08-19 | 2021-07-27 | 北京安云世纪科技有限公司 | 一种语音指令的执行方法、装置及电子设备 |
CN110610706A (zh) * | 2019-09-23 | 2019-12-24 | 珠海格力电器股份有限公司 | 声音信号采集方法、装置、电器设备控制方法及电器设备 |
CN112578338B (zh) * | 2019-09-27 | 2024-05-14 | 阿里巴巴集团控股有限公司 | 声源定位方法、装置、设备及存储介质 |
TWI708941B (zh) * | 2019-10-18 | 2020-11-01 | 財團法人金屬工業研究發展中心 | 聲音擷取裝置及加工機刀具狀態偵測設備 |
JP2021074202A (ja) * | 2019-11-07 | 2021-05-20 | ソニー株式会社 | 自律移動体、情報処理方法、プログラム、及び、情報処理装置 |
CN111048113B (zh) * | 2019-12-18 | 2023-07-28 | 腾讯科技(深圳)有限公司 | 声音方向定位处理方法、装置、系统、计算机设备及存储介质 |
JP2021097765A (ja) * | 2019-12-20 | 2021-07-01 | 株式会社東海理化電機製作所 | 制御装置およびプログラム |
CN112312014A (zh) * | 2020-10-23 | 2021-02-02 | 移康智能科技(上海)股份有限公司 | 一种声音与摄像头联动系统 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1589820A (en) * | 1924-11-13 | 1926-06-22 | Agnes R Rossman | Ladder for sleeping cars |
JPH0211681A (ja) | 1988-06-28 | 1990-01-16 | Shinko Kagaku Kogyo Kk | 耐熱性シリコーン系粘着シート・テープ |
JP2000187435A (ja) | 1998-12-24 | 2000-07-04 | Sony Corp | 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法 |
WO2000067959A1 (fr) | 1999-05-10 | 2000-11-16 | Sony Corporation | Dispositif robotique et procede de commande associe |
JP2002175091A (ja) | 2000-12-06 | 2002-06-21 | Sony Corp | 音声合成方法及び装置、並びにロボット装置 |
US6967455B2 (en) * | 2001-03-09 | 2005-11-22 | Japan Science And Technology Agency | Robot audiovisual system |
JP2003266353A (ja) * | 2002-03-18 | 2003-09-24 | Sony Corp | ロボット装置及びその制御方法 |
US7852369B2 (en) | 2002-06-27 | 2010-12-14 | Microsoft Corp. | Integrated design for omni-directional camera and microphone array |
JP2004283927A (ja) | 2003-03-20 | 2004-10-14 | Sony Corp | ロボット制御装置および方法、記録媒体、並びにプログラム |
JP2004298988A (ja) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | 移動ロボットの画像送信装置 |
JP2005193331A (ja) | 2004-01-06 | 2005-07-21 | Sony Corp | ロボット装置及びその情動表出方法 |
JP4555039B2 (ja) | 2004-03-30 | 2010-09-29 | 日本電気株式会社 | ロボット、ロボット制御方法、ロボット制御プログラム |
JP2005354223A (ja) * | 2004-06-08 | 2005-12-22 | Toshiba Corp | 音源情報処理装置、音源情報処理方法、音源情報処理プログラム |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
JP4204541B2 (ja) * | 2004-12-24 | 2009-01-07 | 株式会社東芝 | 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム |
JP2006212717A (ja) * | 2005-02-01 | 2006-08-17 | Advanced Telecommunication Research Institute International | ロボット装置 |
JP2007221300A (ja) * | 2006-02-15 | 2007-08-30 | Fujitsu Ltd | ロボット及びロボットの制御方法 |
JP2007257088A (ja) | 2006-03-20 | 2007-10-04 | Univ Of Electro-Communications | ロボット装置及びそのコミュニケーション方法 |
JP4757786B2 (ja) * | 2006-12-07 | 2011-08-24 | Necアクセステクニカ株式会社 | 音源方向推定装置、音源方向推定方法、及びロボット装置 |
JP2008158868A (ja) * | 2006-12-25 | 2008-07-10 | Toyota Motor Corp | 移動体、及びその制御方法 |
JP2008216735A (ja) | 2007-03-06 | 2008-09-18 | Fujitsu Ltd | 受付ロボット及び受付ロボットの会話適応方法 |
JP5033527B2 (ja) | 2007-07-20 | 2012-09-26 | ローム株式会社 | アナウンスシステム、電気機器及び制御装置 |
JP5288214B2 (ja) | 2007-12-18 | 2013-09-11 | ソニー株式会社 | データ処理装置、データ処理方法、及びプログラム |
JP2009241166A (ja) | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | ロボット遠隔操作システム |
KR100953407B1 (ko) | 2008-04-24 | 2010-04-19 | 한국과학기술원 | 로봇의 호감도 형성장치 및 그 방법 |
JP2009151314A (ja) * | 2008-12-25 | 2009-07-09 | Sony Corp | 情報処理装置及び情報処理方法 |
JP5429462B2 (ja) * | 2009-06-19 | 2014-02-26 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP5751610B2 (ja) | 2010-09-30 | 2015-07-22 | 学校法人早稲田大学 | 会話ロボット |
US20120316680A1 (en) * | 2011-06-13 | 2012-12-13 | Microsoft Corporation | Tracking and following of moving objects by a mobile robot |
JP5765153B2 (ja) | 2011-09-12 | 2015-08-19 | 日本電気株式会社 | 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム |
JP2013104938A (ja) | 2011-11-11 | 2013-05-30 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
KR101358999B1 (ko) | 2011-11-21 | 2014-02-07 | (주) 퓨처로봇 | 캐릭터의 다국어 발화 시스템 및 방법 |
JP5910209B2 (ja) | 2012-03-16 | 2016-04-27 | 富士通株式会社 | ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム |
CN202781159U (zh) * | 2012-06-28 | 2013-03-13 | 湖北第二师范学院 | 仿真人课堂教学机器人 |
JP6157598B2 (ja) * | 2013-04-12 | 2017-07-05 | 株式会社日立製作所 | 移動ロボット、及び、音源位置推定システム |
JP2016090775A (ja) * | 2014-11-04 | 2016-05-23 | トヨタ自動車株式会社 | 応答生成装置、応答生成方法およびプログラム |
KR20160101485A (ko) * | 2015-02-17 | 2016-08-25 | 부산대학교 산학협력단 | 이동 음원의 포획을 위한 이동 로봇의 제어 방법 |
US9598076B1 (en) | 2015-10-22 | 2017-03-21 | Ford Global Technologies, Llc | Detection of lane-splitting motorcycles |
CN105425970B (zh) * | 2015-12-29 | 2019-02-26 | 深圳微服机器人科技有限公司 | 一种人机互动的方法、装置及机器人 |
-
2017
- 2017-08-23 GB GB1902507.1A patent/GB2567600B/en active Active
- 2017-08-23 CN CN201780052742.0A patent/CN109644303B/zh active Active
- 2017-08-23 DE DE112017004363.8T patent/DE112017004363T5/de active Pending
- 2017-08-23 WO PCT/JP2017/030063 patent/WO2018043235A1/ja active Application Filing
- 2017-08-23 JP JP2018537177A patent/JP6494062B2/ja active Active
-
2019
- 2019-02-25 US US16/283,819 patent/US11376740B2/en active Active
- 2019-03-01 JP JP2019037156A patent/JP7320239B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4159387A1 (en) * | 2021-09-29 | 2023-04-05 | Casio Computer Co., Ltd. | Robot, robot control method, and program |
Also Published As
Publication number | Publication date |
---|---|
CN109644303B (zh) | 2021-07-23 |
US20190184567A1 (en) | 2019-06-20 |
GB201902507D0 (en) | 2019-04-10 |
CN109644303A (zh) | 2019-04-16 |
GB2567600A (en) | 2019-04-17 |
WO2018043235A1 (ja) | 2018-03-08 |
GB2567600B (en) | 2022-05-04 |
JP2019162714A (ja) | 2019-09-26 |
JPWO2018043235A1 (ja) | 2018-12-20 |
JP7320239B2 (ja) | 2023-08-03 |
DE112017004363T5 (de) | 2019-06-19 |
US11376740B2 (en) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6494062B2 (ja) | 音源の方向を認識する自律行動型ロボット | |
JP6409206B2 (ja) | お出迎え行動する自律行動型ロボット | |
JP6472113B2 (ja) | 自然な距離感を保つ自律行動型ロボットおよびプログラム | |
JP6402320B2 (ja) | 人見知りする自律行動型ロボット | |
JP6467674B2 (ja) | スキンシップを理解する自律行動型ロボット | |
JP7068709B2 (ja) | 瞳を変化させる自律行動型ロボット | |
JP6475872B2 (ja) | 活動量をコントロールされる自律行動型ロボット | |
JP6409207B2 (ja) | 服を着る自律行動型ロボット | |
JP6409209B2 (ja) | 涼しさを求める自律行動型ロボット | |
JP6557840B2 (ja) | ロボット、サーバ及び行動制御プログラム | |
JPWO2018084170A1 (ja) | 人を識別する自律行動型ロボット | |
JP6575005B2 (ja) | ロボットの関節に好適なジョイント構造 | |
JP2018192559A (ja) | 曲面形状のボディに対するタッチを検出する自律行動型ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20180711 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180724 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180724 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20181009 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6494062 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
RG99 | Written request for provisional registration |
Free format text: JAPANESE INTERMEDIATE CODE: R313G99 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |