JP5162852B2 - Android control system - Google Patents
Android control system Download PDFInfo
- Publication number
- JP5162852B2 JP5162852B2 JP2006195163A JP2006195163A JP5162852B2 JP 5162852 B2 JP5162852 B2 JP 5162852B2 JP 2006195163 A JP2006195163 A JP 2006195163A JP 2006195163 A JP2006195163 A JP 2006195163A JP 5162852 B2 JP5162852 B2 JP 5162852B2
- Authority
- JP
- Japan
- Prior art keywords
- android
- unconscious
- control data
- room
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000003443 Unconsciousness Diseases 0.000 claims description 73
- 230000009471 action Effects 0.000 claims description 54
- 241000282412 Homo Species 0.000 claims description 6
- 230000000875 corresponding effect Effects 0.000 description 32
- 238000000034 method Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 230000029058 respiratory gaseous exchange Effects 0.000 description 7
- 210000001015 abdomen Anatomy 0.000 description 6
- 230000004397 blinking Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Description
この発明はアンドロイド制御システムに関し、特にたとえば、姿形が人間に酷似したロボットであるアンドロイドを制御する、アンドロイド制御システムに関する。 The present invention relates to an android control system, and more particularly to an android control system that controls an android that is a robot whose shape is very similar to a human.
この発明の背景技術の一例が特許文献1に開示される。この特許文献1によれば、電子玩具は、たとえば人型の電子ロボットであり、人(ユーザ)の存在の有無に応じて動作する。たとえば、ユーザが存在しない場合には、電子ロボットは予め定められた一人遊び動作を実行する。一方、ユーザが存在する場合には、現在時間に応じて、予め定められた動作(起きる動作,見送り動作など)を実行する。また、電子ロボットの頭部の顔面相当部には表示部が設けられ、電子ロボットの顔の表情を表示したり、電子ロボットの発話内容を文字や記号で表示したりする。
しかし、特許文献1の技術は、ユーザが近くに存在するときに電子ロボットを自動的に起動するものであり、また、顔面相当部に設けられた表示部に表情が表示されるが、外観のみならず、動作(行動)も人間とは異なる。つまり、自然な動作(無意識動作)を実行することができない。
However, the technique of
それゆえに、この発明の主たる目的は、新規な、アンドロイド制御システムを提供することである。 Therefore, the main object of the present invention is to provide a novel android control system.
この発明の他の目的は、アンドロイド特有の制御を実現する、アンドロイド制御システムを提供することである。 Another object of the present invention is to provide an android control system that realizes android-specific control.
本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.
請求項1の発明は、姿形が人間に酷似したロボットであるアンドロイドを制御するアンドロイド制御システムであって、複数のセンサ、複数のセンサの出力に基づいて認識されるアンドロイドへの刺激に対する対応動作をアンドロイドに実行させる制御データを出力する制御データ出力手段、制御データ出力手段から出力された制御データに応じて、アンドロイドに設けられるアクチュエータを駆動する駆動手段、制御データ出力手段から制御データが出力された後に、アンドロイドに実行させる無意識動作を選択する無意識動作選択手段、無意識動作選択手段によって選択された無意識動作をアンドロイドが実行する余地があるか否かを判断する余地判断手段、および余地判断手段によって実行する余地があると判断されたとき、無意識動作選択手段によって選択された無意識動作をアンドロイドに実行させる無意識動作実行手段を備える、アンドロイド制御システムである。
The invention of
請求項1の発明では、アンドロイド制御システム(10)は、姿形(外観など)が人間に酷似したロボットであるアンドロイド(12)を制御する。制御データ出力手段(70,S11)は、複数のセンサ(42,44,46,50,60,62,64)の出力に基づいて認識されるアンドロイドへの刺激に対する対応動作をアンドロイドに実行させる制御データを出力する。駆動手段(70,90,S11)は、制御データ出力手段から出力された制御データに応じて、アンドロイドに設けられるアクチュエータ(40)を駆動する。たとえば、人間がアンドロイドに近づくと、アンドロイドがその人間の方を向くように、当該アンドロイドの首を回転させる。これは、動くもの(人,物など)に対する人間の反応と同様である。無意識動作選択手段(70,S13)は、制御データ出力手段から制御データ出力された後に、アンドロイドに実行させる無意識動作を選択する。ここで、無意識動作は、瞬きや呼吸のような生理的な動作のみならず、髪を触る動作、爪を噛む動作のような癖による動作を意味する。余地判断手段(70,S15)は、選択された無意識動作を実行する余地があるか否かを判断する。たとえば、対応動作(または無意識動作)により、右手を上に挙げている最中に、無意識動作(または命令動作)により、右手を下に下げることはできないからである。無意識動作実行手段(70,S17)は、余地判断手段によって実行する余地があると判断されたとき、選択された無意識動作をアンドロイドに実行させる。
In the invention of
請求項1の発明によれば、アンドロイドに無意識動作を実行させるので、アンドロイド特有の制御を実現することができる。したがって、より人間に酷似するアンドロイドを実現することができる。
請求項2の発明は、姿形が人間に酷似したロボットであるアンドロイドへの刺激に対する対応動作を当該アンドロイドが実行不能であるとき、オペレータを呼び出し、当該オペレータによる操作命令に従って当該アンドロイドを制御するアンドロイド制御システムであって、オペレータによる操作命令を受信する受信手段、受信手段によって受信された操作命令に従う命令動作をアンドロイドに実行させる制御データを出力する制御データ出力手段、制御データ出力手段から出力された制御データに応じて、アンドロイドに設けられるアクチュエータを駆動する駆動手段、制御データ出力手段から制御データが出力された後に、アンドロイドに実行させる無意識動作を選択する無意識動作選択手段、無意識動作選択手段によって選択された無意識動作をアンドロイドが実行する余地があるか否かを判断する余地判断手段、および余地判断手段によって実行する余地があると判断されたとき、無意識動作選択手段によって選択された無意識動作をアンドロイドに実行させる無意識動作実行手段を備える、アンドロイド制御システムである。
請求項2の発明では、アンドロイド制御システム(10)は、姿形が人間に酷似したロボットであるアンドロイド(12)への刺激に対する対応動作を当該アンドロイドが実行不能であるとき、オペレータを呼び出し、当該オペレータによる操作命令に従って当該アンドロイドを制御する。アンドロイドが対応できない場合には、オペレータに対応させることにより、アンドロイドが提供するサービス(受付や案内など)を補完することができる。受信手段(70,78,S1)は、オペレータによる操作命令を受信する。制御データ出力手段(70,S3)は、受信手段によって受信された操作命令に従う命令動作をアンドロイドに実行させる制御データを出力する。駆動手段(70,90,S3)は、制御データ出力手段から出力された制御データに応じて、アンドロイドに設けられるアクチュエータ(40)を駆動する。無意識動作選択手段(70,S13)は、制御データ出力手段から制御データが出力された後に、アンドロイドに実行させる無意識動作を選択する。余地判断手段(70,S15)は、選択された無意識動作を実行する余地があるか否かを判断する。無意識動作実行手段(70,S17)は、余地判断手段によって実行する余地があると判断されたとき、選択された無意識動作をアンドロイドに実行させる。
請求項2の発明においても、第1の発明と同様に、より人間に酷似するアンドロイドを実現することができる。
According to the first aspect of the invention, since the android performs an unconscious operation, control specific to the android can be realized. Therefore, it is possible to realize an android that closely resembles humans .
The invention of claim 2 calls an operator when the android is unable to execute an action corresponding to a stimulus to an android which is a robot whose shape is very similar to that of a human, and controls the android according to an operation instruction by the operator The control system is a receiving unit that receives an operation command from an operator, a control data output unit that outputs control data that causes an android to execute a command operation according to the operation command received by the receiving unit, and is output from a control data output unit According to the control data, selected by the driving means for driving the actuator provided in the android, the unconscious action selecting means for selecting the unconscious action to be executed by the android after the control data is output from the control data output means, and the unconscious action selecting means Nothing was done When it is determined that there is room for the android to perform the recognition action, and the room determination means, the unconscious action selected by the unconscious action selection means is executed for the android. It is an android control system provided with an unconscious motion execution means.
In the invention of claim 2, the android control system (10) calls an operator when the android cannot execute the corresponding action to the stimulus to the android (12) which is a robot whose shape is very similar to that of a human. The Android is controlled according to an operation instruction by the operator. When the Android cannot be supported, services provided by the Android (such as reception and guidance) can be complemented by making the operator support. The receiving means (70, 78, S1) receives an operation command from the operator. The control data output means (70, S3) outputs control data that causes the android to execute a command operation according to the operation command received by the receiving means. The drive means (70, 90, S3) drives the actuator (40) provided in the android in accordance with the control data output from the control data output means. The unconscious action selection means (70, S13) selects the unconscious action to be executed by the android after the control data is output from the control data output means. The room determination means (70, S15) determines whether there is room for executing the selected unconscious action. The unconscious action execution means (70, S17) causes the android to execute the selected unconscious action when it is determined that there is room for execution by the room determination means.
In the invention of claim 2, as in the first invention, it is possible to realize an android that closely resembles a human being.
なお、実施例のように、検出手段(70,90,S5)を設け、検出手段は、受信手段によって操作命令が受信されないとき、複数のセンサの出力を検出するようにすれば、操作命令が無いとき、その複数のセンサの出力に反応してアンドロイドを動作させることができる。 As in the embodiment, if the detection means (70, 90, S5) is provided and the detection means detects the outputs of the plurality of sensors when the operation instruction is not received by the reception means, the operation instruction When not, Android can be activated in response to the outputs of the sensors.
この発明によれば、アンドロイドに無意識動作を実行させるので、アンドロイド特有の制御を実現することができる。したがって、外観のみならず、人間の行動に酷似させることができる。 According to this invention, since the android is executed unconsciously, it is possible to realize control specific to the android. Therefore, not only the appearance but also the human behavior can be imitated.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のアンドロイド制御システム(以下、単に「システム」という。)10は、アンドロイド12を含む。アンドロイド12は、人間に酷似した姿形(外観など)を有する人型ロボットであり、後述するように、人間に酷似した動作(振り、振る舞い、発話)を行う。アンドロイド12は、制御装置14に接続され、この制御装置14には、環境センサ16が接続される。アンドロイド12、制御装置14および環境センサ16については、後で詳細に説明する。
Referring to FIG. 1, an Android control system (hereinafter simply referred to as “system”) 10 of this embodiment includes an Android 12. The Android 12 is a humanoid robot having a form (appearance or the like) that closely resembles a human, and performs operations (shake, behave, or speak) that resemble a human, as will be described later. The android 12 is connected to a
また、制御装置14は、インターネットや電話通信回線のようなネットワーク18を介して遠隔操作端末20に接続される。遠隔操作端末20は、PC或いはPDAのような汎用のコンピュータであり、この遠隔操作端末20には、スピーカ22、マイク24およびモニタ26が接続される。図示は省略するが、当然のことながら、遠隔操作端末20には、キーボードおよびコンピュータマウスのような入力装置が含まれる。
The
図2は、アンドロイド12、制御装置14および環境センサ16の電気的な構成を示すブロック図である。この図2を参照して、アンドロイド12は複数のアクチュエータ(たとえば、エアアクチュエータ)40を含み、各アクチュエータ40は、後述する制御装置14(14b)の制御ボード(アクチュエータ制御ボード)98に接続される。後述するように、アクチュエータ40はアンドロイド12の各関節、口、眼および腹部を動かすために用いられる。ただし、簡単のため、この実施例では、コンプレッサは省略してある。
FIG. 2 is a block diagram showing an electrical configuration of the android 12, the
また、アンドロイド12は、触覚センサ42、眼カメラ44、衝突センサ46、スピーカ48およびマイク50を含む。この触覚センサ42、眼カメラ44および衝突センサ46は、後述する制御装置14(14b)のセンサ入出力ボード100に接続される。
The android 12 includes a
触角センサ42ないし皮膚センサは、たとえばタッチセンサであり、アンドロイド12の触覚の一部を構成する。つまり、触覚センサ42は、人間や他の物体等がアンドロイド12に触れたか否かを検出するために用いられる。触覚センサ42からの出力(検出データ)は、後述するセンサ入出力ボード100を介してMPU90に与えられる。MPU90は、触覚センサ42からの検出データを第1コンピュータ14aのCPU70に送信する。したがって、CPU70は、人間や他の物体等がアンドロイド12に触れたことを検出することができる。ただし、触覚センサ42としては、圧力センサを用いることもできる。かかる場合には、人間や他の物体等がアンドロイド12の肌に触れたか否かのみならず、その触れ方(強弱)を知ることができる。
The
眼カメラ44は、イメージセンサであり、アンドロイド12の視覚の一部を構成する。つまり、眼カメラ44は、アンドロイド12の眼から見た映像ないし画像を検出するために用いられる。この実施例では、眼カメラ44の撮影映像(動画ないし静止画)に対応するデータ(画像データ)は、センサ入出力ボード100を介してMPU90に与えられる。MPU90は、画像データを第1コンピュータ14aのCPU70に送信し、CPU70は、撮影映像の変化を検出するのみならず、その画像データを、ネットワーク18を介して遠隔操作端末20に送信する。そして、遠隔操作端末20は、受信した画像データをモニタ26に出力する。したがって、眼カメラ44の撮影映像がモニタ26に表示される。
The
衝突センサ46は、人間や他の物体等がアンドロイド12に衝突したか否かを判断する。衝突センサ46の出力(検出データ)は、センサ入出力ボード100を介してMPU90に与えられる。MPU90は、衝突センサ46からの検出データを第1コンピュータ14aのCPU70に送信する。したがって、CPU70は、人間や他の物体等がアンドロイド12に衝突したことを検出することができる。
The
また、スピーカ48およびマイク50は、後述する制御装置14(14a)の音声入出力ボード80に接続される。スピーカ48は、アンドロイド12が発する音声(合成音声)を出力する。ただし、遠隔操作端末20のオペレータ(以下、「遠隔オペレータ」という。)の音声を出力してもよい。かかる場合には、遠隔オペレータがマイク24を通して発話すると、対応する音声データが遠隔操作端末20からネットワーク18を介して制御装置14a(CPU70)に与えられる。そして、CPU70は、その音声データを、音声入出力ボード80を介してスピーカ48から出力する。
The
マイク50は、音センサであり、アンドロイド12の聴覚の一部を構成する。このマイク50は、指向性を有し、主として、アンドロイド12と対話(コミュニケーション)する人間(ユーザ)の音声を検出するために用いられる。
The
制御装置14は、第1コンピュータ14aおよび第2コンピュータ14bによって構成される。たとえば、第1コンピュータ14aがメインのコンピュータであり、第2コンピュータ14bがサブのコンピュータである。なお、この実施例では、制御装置14を2台のコンピュータ(14a,14b)で構成するようにしてあるが、処理能力が高ければ、1台のコンピュータで構成することもできる。
The
第1コンピュータ14aは、CPU70を含み、CPU70には内部バス72を介してメモリ74、通信ボード76、LANボード78、音声入出力ボード80およびセンサ入出力ボード82が接続される。メモリ74は、たとえば、ハードディスク装置(HDD)のような主記憶装置、ROMおよびRAMを含む。詳細な説明は省略するが、このメモリ74には、アンドロイド12の動作についてのコマンド名に対応して、そのコマンド名が示す動作を実行するための制御情報が記憶される。
The
ここで、動作とは、振り、振る舞いのような身体動作および発話動作をいう。したがって、この実施例では、制御情報は、アクチュエータ40を駆動制御するための制御データのみならず、必要に応じて、発話内容についての合成音声の音声データを含む。ただし、身体動作には、自然の動作(無意識動作)も含まれる。無意識動作の代表的な例としては、瞬きや呼吸が該当する。また、このような生理的な動作のみならず、人間の癖による動作も無意識動作に含まれる。たとえば、癖による動作としては、たとえば、髪の毛を触る動作、顔を触る動作や爪を噛む動作などが該当する。
Here, the movement refers to a body movement such as swinging and behavior and a speech movement. Therefore, in this embodiment, the control information includes not only the control data for driving and controlling the
たとえば、“挨拶(初めて)”の動作を実行する場合には、アンドロイド12は、お辞儀しながら、“はじめまして”と発話する。図示は省略するが、発話する場合には、単に音声が出力されるだけでなく、音声の出力に合わせて口が動く(口唇が開閉する)。以下、同様である。したがって、“挨拶(初めて)”の制御情報としては、そのコマンド名に対応して、左右の肩、左右の肘、首,腰の回転角度や曲げ伸ばし角度に応じて、対応するアクチュエータ40の制御データが記憶されるとともに、“はじめまして”に対応する合成音声の音声データが記憶される。また、“右手を挙げる”の動作を実行する場合には、アンドロイド12は、右肘および右手首を伸ばした状態で、斜め上方に右手を挙げる。したがって、“右手を挙げる”の制御情報としては、そのコマンド名に対応して、右肩、右肘、右手首の回転角度や曲げ伸ばし角度に応じて、対応するアクチュエータ40の制御データが記憶される。この“右手を挙げる”の動作では、アンドロイド12は、何も発話しないため、音声データは制御情報に含まれない。
For example, when performing the “greeting (first time)” operation, the
このような動作は、アンドロイド12が外部(環境)からの刺激に対応して実行されたり、遠隔オペレータからの命令(遠隔操作命令)に従って実行されたりする。以下、説明の便宜上、アンドロイド12が外部からの刺激に対応して行う動作を対応動作といい、遠隔オペレータからの遠隔操作命令に従う動作を命令動作ということがある。
Such an operation is executed by the
また、上述した無意識動作の制御情報もメモリ74に記憶される。たとえば、“瞬き”の制御情報としては、そのコマンド名に対応して、瞼を開閉させるアクチュエータ40の制御データが記憶される。ただし、人間の瞬きの動作では、瞼は完全に閉じられた後に開くが、アンドロイド12がこの動作を再現すると、瞼の開閉動作が遅いため、違和感がある。したがって、この実施例では、より人間の瞬きの動作に近づけるために、アンドロイド12においては、瞼を半分程度閉じた後に開いて、瞼の開閉動作を速くするようにしてある。また、“呼吸”の制御情報としては、そのコマンド名に対応して、腹部を膨張および収縮させるアクチュエータ40の制御データが記憶される。したがって、“呼吸”の動作が実行されると、アンドロイド12の腹部が膨張および収縮されることにより、肺呼吸による肩や胸(横隔膜)の動きが表現される。
Further, the control information for the unconscious movement described above is also stored in the
なお、これらの動作(対応動作,命令動作,無意識動作)および制御情報は単なる例示であり、限定されるべきではない。他の複数の動作およびそれらの制御情報がメモリ74に記憶され、人間に酷似した動作を、アンドロイド12が実現可能とされる。
Note that these operations (corresponding operations, command operations, unconscious operations) and control information are merely examples, and should not be limited. A plurality of other operations and their control information are stored in the
図2に戻って、通信ボード76は、他のコンピュータ(この実施例では、第2コンピュータ14b)とデータ通信するためのインターフェイスである。たとえば、通信ボード76は、後述する第2コンピュータ14bの通信ボード96と、RS232Cのようなケーブル(図示せず)を用いて接続される。LANボード78は、ネットワーク18を介して他のコンピュータ(この実施例では、遠隔操作端末20)とデータ通信するためのインターフェイスである。この実施例では、LANボード78は、LANケーブル(図示せず)を用いて接続される。
Returning to FIG. 2, the
なお、この実施例では、各コンピュータがケーブルを用いた有線のネットワークを構成するように説明してあるが、これに限定される必要はなく、無線のネットワークを構成するようにしてもよく、有線と無線とが混在するネットワークを構成するようにしてもよい。 In this embodiment, each computer is described as configuring a wired network using a cable. However, the present invention is not limited to this, and a wireless network may be configured. And a wireless network may be configured.
音声入出力ボード80は、音声を入力および出力するためのインターフェイスであり、上述したように、アンドロイド12のスピーカ48およびマイク50が接続される。この音声入出力ボード80は、CPU70によって与えられた音声データを音声信号に変換して、スピーカ48に出力する。また、音声入出力ボード80は、マイク50を通して入力された音声信号を音声データに変換して、CPU70に与える。
The voice input /
なお、詳細な説明は省略するが、制御装置14aは、音声認識機能を備える。したがって、たとえば、人間がアンドロイド12に対して発話した内容はマイク50を通して入力されると、CPU70は、DPマッチングや隠れマルコフ法により、人間の発話内容を音声認識するのである。ただし、音声認識用の辞書データはメモリ74に記憶されているものとする。
Although a detailed description is omitted, the
センサ入出力ボード82は、各種センサからの出力をCPU70に与え、制御データを各種センサに出力するためのインターフェイスである。この実施例では、センサ入出力ボード82には、環境センサ16が接続され、環境センサ16は、全方位カメラ60、PTZカメラ62およびフロアセンサ64を含む。
The sensor input /
全方位カメラ60は、アンドロイド12が配置される部屋ないし場所(区画)に設置され、当該部屋ないし場所の全体(360度)を撮影することができる。全方位カメラ60の撮影映像に対応する画像データは、CPU70に与えられる。CPU70は、画像データに基づいて撮影映像の変化を検出するのみならず、その画像データを遠隔操作端末20に送信する。遠隔操作端末20は、受信した画像データをモニタ26に出力する。したがって、全方位カメラ60の撮影映像がモニタ26に表示される。
The
PTZカメラ62は、オペレータ(たとえば、遠隔オペレータ)の指示に従って、パン(Pan)、チルト(Tilt)およびズーム(Zoom)の各々を制御(調整)することができるカメラである。たとえば、遠隔オペレータが、パン、チルト、ズームの指示を入力すると、対応する制御信号(コマンド)が遠隔操作端末20からネットワーク18を介して第1コンピュータ14aに与えられる。すると、第1コンピュータ14aのCPU70は、そのコマンドに従ってPTZカメラ62を駆動制御する。PTZカメラ62の撮影映像に対応する画像データもまた、CPU70に与えられる。CPU70は、画像データに基づいて撮影映像の変化を検出するのみならず、その画像データを遠隔操作端末20に送信する。遠隔操作端末20は、受信した画像データをモニタ26に出力する。したがって、PTZカメラ62の撮影映像もモニタ26に表示される。
The
なお、この実施例では、眼カメラ44,全方位カメラ60およびPTZカメラ62の撮影画像が、遠隔操作端末20に接続されるモニタ26に画面を分割されて表示される。したがって、遠隔オペレータはモニタ26を見て、アンドロイド12の視線の映像やアンドロイド12の周囲の状況を知ることができる。
In this embodiment, the captured images of the
フロアセンサ64ないし床圧力センサは、図示は省略するが、多数の検出素子(感圧センサ)を含み、この多数の検出素子はアンドロイド12が配置される部屋ないし場所の床に埋め込まれる(敷き詰められる)。したがって、フロアセンサ64からの出力に基づいて、アンドロイド12の周囲に人間が存在するか否か、存在する人間の人数、アンドロイド12から見た人間の方向、アンドロイド12と人間との距離などを知ることができる。
Although not shown, the
第2コンピュータ14bは、MPU90を含み、MPU90には、内部バス92を介して、メモリ94、通信ボード96、制御ボード98およびセンサ入出力ボード100が接続される。
The
メモリ94は、HDD、ROMおよびRAMを含む。通信ボード96は、他のコンピュータ(この実施例では、第1コンピュータ14a)とデータ通信するためのインターフェイスである。制御ボード98は、制御対象としての複数のアクチュエータ40を制御するための制御データを出力するとともに、各アクチュエータ40からの角度情報(回転角度,曲げ角度)を入力するためのインターフェイスである。したがって、MPU90は複数のアクチュエータ40をフィードバック制御することができる。ただし、MPU90は、第1コンピュータ14aのCPU70からの指示(制御データ)に従って各アクチュエータ40を駆動制御する。
The
センサ入出力ボード100は、各種センサからの出力をMPU90に与え、MPU90からの制御データを各種センサに出力するためのインターフェイスである。このセンサ入出力ボード100には、上述したように、触覚センサ42、眼カメラ44および衝突センサ46が接続される。
The sensor input /
ここで、この実施例のアンドロイド12では、アクチュエータ40は、各関節(首、肩、肘、手首、指、腰、膝、足首)、眼(瞼)、口唇および腹部を駆動制御するために設けられる。各々の駆動部は、図3において丸印(〇)で示してある。したがって、アクチュエータ40を用いて、各関節の回転や曲げ伸ばし、瞼の開閉、口唇の開閉および腹部の動き(呼吸)のそれぞれが実現される。これにより、アンドロイド12の身体動作が表示される。
Here, in the
なお、この実施例では、アンドロイド12とは別に制御装置14を設けるようにしてあるが、制御装置14を含めてアンドロイドと呼んでもよい。さらには、環境センサ16も含めてアンドロイドと呼んでもよい。
In this embodiment, the
このような構成のシステム10は、或る会社や或るイベント会場などに適用され、アンドロイド12は、人間の代役として働く。たとえば、アンドロイド12は、会社やイベント会場の受付として機能する。アンドロイド12は、人間がアンドロイド12に近づこうとしたり、人間がアンドロイド12の近くを通り過ぎたりするとき、その人間の方を見る。具体的には、制御装置14(CPU70)は、環境センサ16(フロアセンサ64)の出力に基づいて、人間がアンドロイド12に向かって移動していることを検出すると、そのフロアセンサ64の出力に基づいて、アンドロイド12の顔の正面方向と当該人間との角度を検出して、首の回転方向と角度を算出する。そして、CPU70は、首を回転させる(人間の方を見る)ための制御データ(回転方向および角度を含む。)をMPU90に送信する。これに応じて、MPU90は、アクチュエータ40を駆動制御し、アンドロイド12の首が算出した回転方向に算出した角度だけ回転される。
The
また、たとえば、人間がアンドロイド12に接近し、アンドロイド12の前で立ち止まると、アンドロイド12は当該人間に、挨拶したり、自己紹介したりする。具体的には、CPU70は、環境センサ16(フロアセンサ64)の出力に基づいて、人間がアンドロイド12の近くに立ち止まったことを検出すると、挨拶するための制御情報をMPU90に送信する。
For example, when a human approaches the
なお、“挨拶(初めて)”の制御情報に基づくアンドロイド12の動作は上述したとおりであり、“こんにちは”,“こんばんは”など他の挨拶も発話内容が異なる以外は略同じであるため、重複した説明は省略する。また、自己紹介する場合にも、発話内容が異なる以外は、挨拶する場合と略同じであるため、詳細な説明は省略することにする。
Incidentally, "greeting (first)"
また、上述した例では、人間がアンドロイド12に近づこうとしていることや人間がアンドロイド12に接近したことをフロアセンサ64の出力に基づいて検出するようにしたが、触覚センサ42、眼カメラ44、衝突センサ46、マイク50、全方位カメラ60またはPTZカメラ62の出力に基づいて検出することもできる。たとえば、触覚センサ42や衝突センサ46に反応があった場合には、人間や物体等がアンドロイド12に触れたり、衝突したりしたことを検出することができる。また、マイク50に一定レベル以上の音声が入力された場合には、人間がアンドロイド12に接近したり、アンドロイド12に対して話し掛けたりしていることを検出することができる。つまり、外部からの刺激は様々であり、検出する方法も様々である。
Further, in the above-described example, it is detected based on the output of the
このように、外部からの刺激に応じて、アンドロイド12が所定の対応動作を実行する。詳細な説明は省略するが、環境センサ16で検出される刺激に応じて、アンドロイド12が実行すべき(実行可能な)動作、すなわちCPU70が指示するべき制御情報は予め決定されており、その内容はメモリ74に記憶されている。したがって、センサ群(42,44,46,50,60,62,64)の反応に応じた対応動作をアンドロイド12に実行させることができるのである。
In this way, the
ただし、センサ群の反応に応じた対応動作がメモリ74に記憶されていない場合や外部からの刺激を認識できない場合などのように、アンドロイド12が刺激に対して対応動作を実行することができない場合には、アンドロイド12は遠隔オペレータを呼び出す。具体的には、制御装置14(CPU70)は、アンドロイド12が対応できない旨を遠隔操作端末20に通知する。したがって、たとえば、アンドロイド12が人間の質問(発話内容)を理解(音声認識)できない場合には、遠隔オペレータを呼び出し、そのような場合には、遠隔オペレータが人間の質問を理解し、遠隔操作により、アンドロイド12に命令動作を実行させることができる。ただし、遠隔オペレータの音声をアンドロイド12のスピーカ48から出力して、直接的に対応するようにしてもよい。かかる場合には、上述したように、遠隔オペレータがマイク24を通して発話すると、対応する音声データが遠隔操作端末20からネットワーク18を介して制御装置14に与えられ、アンドロイド12のスピーカ48から出力される。一方、アンドロイド12と対話する人間が発話すると、その音声はアンドロイド12のマイク50を通して入力され、対応する音声データが制御装置14からネットワーク18を介して遠隔操作端末20に送信され、スピーカ22から出力される。したがって、遠隔オペレータは、アンドロイド12と対話する人間が発話する内容を知ることができる。このように、アンドロイド12が対応できない刺激に対しては、遠隔オペレータが対応するので、アンドロイド12が提供するサービス(受付,案内など)に支障を来たすのを防止することができる。つまり、アンドロイド12が提供するサービスを遠隔オペレータが補完することができるのである。
However, when the corresponding action according to the sensor group response is not stored in the
また、上述したように、眼カメラ44、全方位カメラ60およびPTZカメラ62の撮影映像は、遠隔操作端末20のモニタ26に表示されるため、その撮影映像等によりアンドロイド12が存在する近傍、周囲およびアンドロイド12と対話する人間の様子を知ることができる。したがって、遠隔オペレータは、アンドロイド12(制御装置14)からの呼び出しが無くても、必要に応じて遠隔操作し、アンドロイド12に命令動作を実行させることもできる。
Further, as described above, the captured images of the
しかし、アンドロイド12の近傍や周囲に人間が存在しない場合や遠隔オペレータの操作(遠隔操作命令)が無い場合には、アンドロイド12に無意識動作を実行させる。このため、アンドロイド12の動作を、より人間の動作に酷似させることができるのである。ただし、外部からの刺激に対応する対応動作を実行したり、遠隔オペレータの遠隔操作命令による命令動作を実行したりしている間においても、無意識動作を実行するようにしてもよい。つまり、無意識動作を実行する余地があれば、対応動作や命令動作に加えて実行することにより、より人間の動作に近づけるのである。たとえば、人間と対話しながら瞬きしたり、髪を触ったりすることができる。ただし、たとえば、遠隔操作命令(または無意識動作)によって腕を上に動かす動作を実行しているときに、当該腕を下に動かす無意識動作(または対応動作)を実行することはできない。つまり、使用中のアクチュエータ40に対して、別の動作をさせるような制御を行うことはできない。かかる場合には、無意識動作を実行する余地がないと言える。
However, if there is no human in the vicinity of
具体的には、図2に示したCPU70が、図4に示す全体処理のフロー図を処理する。図4に示すように、CPU70は全体処理を開始すると、ステップS1で、遠隔操作命令が有るかどうかを判断する。つまり、遠隔オペレータが遠隔操作端末20を用いてコマンドを入力し、当該コマンドが遠隔操作端末20から送信されたか否かを判断する。ステップS1で“YES”であれば、つまり遠隔操作命令が有れば、ステップS3で、遠隔操作命令に応じた命令動作をアンドロイド12に実行させて、ステップS13に進む。つまり、ステップS3では、CPU70は、遠隔操作端末20から送信されたコマンドに従う身体動作をアンドロイド12に実行させるように、MPU90に制御データを送信する。また、CPU70は、必要に応じて、発話動作に対応する音声データを、音声入出力ボード80を介してスピーカ48から出力する。
Specifically, the
一方、ステップS1で“NO”であれば、つまり遠隔操作命令が無ければ、ステップS5で、センサ群の反応が有るかどうかを判断する。つまり、外部からアンドロイド12に対して刺激があるかどうかを判断する。ステップS5で“NO”であれば、つまりセンサ群の反応が無ければ、そのままステップS13に進む。一方、ステップS5で“YES”であれば、つまりセンサ群の反応が有れば、ステップS7で、対応可能な刺激であるかどうかを判断する。つまり、外部からの刺激に対して、アンドロイド12が対応動作を実行することができるか否かを判断する。
On the other hand, if “NO” in the step S1, that is, if there is no remote operation command, it is determined whether or not there is a sensor group reaction in a step S5. That is, it is determined whether or not there is a stimulus to the
ステップS7で“NO”であれば、つまり対応不能な刺激であれば、ステップS9で、遠隔オペレータを呼び出し、ステップS13に進む。つまり、ステップS9では、CPU72は、遠隔操作端末20に、遠隔オペレータを呼び出すための信号(呼び出し信号)を送信する。なお、図示は省略するが、この呼び出し信号に応答して、遠隔操作端末20では、スピーカ22から呼び出し音(呼び出しメッセージ)が出力されたり、モニタ26に呼び出しメッセージが表示されたりする。一方、ステップS7で“YES”であれば、つまり対応可能な刺激であれば、ステップS11で、対応動作を実行して、ステップS13に進む。つまり、ステップS11では、CPU70は、外部からの刺激に対応する対応動作についての制御情報を第2コンピュータ14b(MPU90)に指示する。これに応じて、MPU90は、アクチュエータ40を駆動制御し、必要に応じて、音声データを出力する。
If “NO” in the step S7, that is, if the stimulus cannot be dealt with, a remote operator is called in a step S9, and the process proceeds to the step S13. That is, in step S <b> 9, the
ステップS13では、後述する無意識動作の選択処理(図5参照)を実行する。続くステップS15では、無意識動作実行の余地が有るかどうかを判断する。つまり、ステップS13で選択した無意識動作を実行することができるか否かを判断する。ステップS15で“NO”であれば、つまり無意識動作実行の余地が無ければ、そのままステップS1に戻る。一方、ステップS15で“YES”であれば、つまり無意識動作実行の余地が有れば、ステップS17で、ステップS13において選択した無意識動作を実行して、ステップS1に戻る。 In step S13, an unconscious action selection process (see FIG. 5) described later is executed. In the subsequent step S15, it is determined whether there is room for unconscious action execution. That is, it is determined whether or not the unconscious action selected in step S13 can be executed. If “NO” in the step S15, that is, if there is no room for unconscious action execution, the process returns to the step S1 as it is. On the other hand, if “YES” in the step S15, that is, if there is a room for executing the unconscious action, the unconscious action selected in the step S13 is executed in a step S17, and the process returns to the step S1.
図5は図4に示したステップS13の無意識動作の選択処理を示すフロー図である。図5に示すように、CPU70は、無意識動作の選択処理を開始すると、ステップS31で、位置Pを初期化する(P=0)。ここで、位置Pは単なる変数であるが、後述するように、生起確率を区間Rとして保持するため、便宜上「位置」としてある。続くステップS33で、ループカウンタのカウント値iを1に設定する。
FIG. 5 is a flowchart showing the unconscious action selection process in step S13 shown in FIG. As shown in FIG. 5, when the
なお、図示は省略するが、ループカウンタは、第1コンピュータ70のメモリ74(RAM)の一部領域に設定されるレジスタによって構成される。
Although not shown, the loop counter is configured by a register set in a partial area of the memory 74 (RAM) of the
続いて、ステップS35では、過去ti秒(たとえば、数秒から数十秒)間以内に、無意識動作Biを実行したかどうかを判断する。ここで、上述した全体処理においては省略したが、ステップS17の処理の前または後において、無意識動作の履歴をメモリ74に記憶するようにしておき、その履歴を少なくともti秒に相当する時間だけ残すようにしてある。したがって、CPU70は、メモリ74に記憶された無意識動作についての履歴を参照して、ステップS35の判断処理を実行するのである。
Subsequently, in step S35, it is determined whether or not the unconscious action Bi has been executed within the past ti seconds (for example, several seconds to several tens of seconds). Here, although omitted in the overall processing described above, the history of unconscious movement is stored in the
ステップS35で“YES”であれば、つまり過去ti秒間以内に、無意識動作Biを実行した場合には、当該無意識動作Biが実行されるのを回避するべく、そのままステップS45に進む。一方、ステップS35で“NO”であれば、つまり過去ti秒間以内に、無意識動作Biを実行していない場合には、ステップS37で、区間Riを設定する(Ri=[P,P+Wi])。続くステップS39では、位置Pを更新する(P=P+Wi)。そして、次のステップS41では、ループカウンタのカウント値iが最大値nであるかどうかを判断する。つまり、すべての無意識動作Bi(1≦i≦n)についての区間Riを設定したかどうかを判断する。 If “YES” in the step S35, that is, if the unconscious action Bi is executed within the past ti seconds, the process proceeds to the step S45 as it is to avoid the unconscious action Bi being executed. On the other hand, if “NO” in the step S35, that is, if the unconscious action Bi is not executed within the past ti seconds, the section Ri is set in a step S37 (Ri = [P, P + Wi]). In the following step S39, the position P is updated (P = P + Wi). In the next step S41, it is determined whether or not the count value i of the loop counter is the maximum value n. That is, it is determined whether or not the section Ri has been set for all unconscious movements Bi (1 ≦ i ≦ n).
ステップS41で“NO”であれば、つまりループカウンタのカウント値iが最大値nでなければ、ステップS43で、ループカウンタをインクリメントして、つまりカウント値iを1加算して、ステップS35に戻る。一方、ステップS41で“YES”であれば、つまりループカウンタのカウント値iが最大値nであれば、ステップS45に進む。 If “NO” in the step S41, that is, if the count value i of the loop counter is not the maximum value n, the loop counter is incremented in the step S43, that is, the count value i is incremented by 1, and the process returns to the step S35. . On the other hand, if “YES” in the step S41, that is, if the count value i of the loop counter is the maximum value n, the process proceeds to a step S45.
ステップS45では、乱数rを発生する。ただし、乱数rの範囲は、0≦r≦Pである。続くステップS47では、乱数rが区間Rjに含まれるような変数j(1≦j≦i)を求めて、全体処理にリターンする。つまり、ステップS47では、CPU70は、無意識動作Bjを選択する。
In step S45, a random number r is generated. However, the range of the random number r is 0 ≦ r ≦ P. In the subsequent step S47, a variable j (1 ≦ j ≦ i) in which the random number r is included in the section Rj is obtained, and the process returns to the entire process. That is, in step S47, the
この実施例によれば、アンドロイドに無意識動作を実行させるので、アンドロイド特有の制御を実現することができる。このため、人間の動作に酷似した動作を実行させることができ、より人間に酷似したアンドロイドを実現することができる。 According to this embodiment, since the android performs an unconscious operation, it is possible to realize control specific to the android. For this reason, it is possible to execute an operation very similar to a human operation, and to realize an Android more similar to a human.
なお、この実施例では、一定時間内に同じ無意識動作を実行しないようにしたが、瞬きや呼吸のような無意識動作は一定時間内であっても実行するようにしてもよい。このような生理的な動作は一定時間内に繰り返されたとしても、特に違和感がなく、人間らしい動作であると言えるからである。したがって、無意識動作の種類に応じて、一定時間内に繰り返してもよいか否かを決定するようにしてもよい。 In this embodiment, the same unconscious action is not executed within a fixed time, but the unconscious action such as blinking or breathing may be executed even within a fixed time. This is because even if such a physiological operation is repeated within a certain time, it can be said that there is no particular sense of incongruity and that it is a human-like operation. Therefore, it may be determined whether or not it may be repeated within a predetermined time according to the type of unconscious action.
また、この実施例では、ネットワークを介して遠隔操作端末を設けることにより、遠隔地にオペレータが存在する場合について説明したが、オペレータは、アンドロイドが存在する場所やその近傍に存在するようにしてもよい。かかる場合には、オペレータが操作する端末(操作端末)を、ネットワークを介さずに、制御装置に直接接続することも可能である。 Further, in this embodiment, a case where an operator exists in a remote place by providing a remote operation terminal via a network has been described. However, an operator may be present at or near an Android location. Good. In such a case, a terminal (operation terminal) operated by the operator can be directly connected to the control device without using a network.
10 …アンドロイド制御システム
12 …アンドロイド
14 …制御装置
16 …環境センサ
20 …遠隔操作端末
22,48 …スピーカ
24,50 …マイク
26 …モニタ
40 …アクチュエータ
42 …触覚センサ
44 …眼カメラ
46 …衝突センサ
60 …全方位カメラ
62 …PTZカメラ
64 …フロアセンサ
70 …CPU
74,94 …メモリ
80 …音声入出力ボード
82,100 …センサ入出力ボード
90 …MPU
98 …制御ボード
DESCRIPTION OF
74, 94 ...
98… Control board
Claims (2)
複数のセンサ、
前記複数のセンサの出力に基づいて認識される前記アンドロイドへの刺激に対する対応動作を当該アンドロイドに実行させる制御データを出力する制御データ出力手段、
前記制御データ出力手段から出力された制御データに応じて、前記アンドロイドに設けられるアクチュエータを駆動する駆動手段、
前記制御データ出力手段から前記制御データが出力された後に、前記アンドロイドに実行させる無意識動作を選択する無意識動作選択手段、
前記無意識動作選択手段によって選択された無意識動作を前記アンドロイドが実行する余地があるか否かを判断する余地判断手段、および
前記余地判断手段によって実行する余地があると判断されたとき、前記無意識動作選択手段によって選択された無意識動作を前記アンドロイドに実行させる無意識動作実行手段を備える、アンドロイド制御システム。 An android control system that controls android, a robot whose appearance is very similar to humans,
Multiple sensors,
Control data output means for outputting the control data to execute the pair responsive operation against the stimulus to android recognized based on an output of said plurality of sensors to the Android,
Drive means for driving an actuator provided in the android in accordance with the control data output from the control data output means,
After the control data is output from the control data output means, unconscious action selection means for selecting an unconscious action to be executed by the android,
When it is determined that there is room to run by the unconscious operation selecting means room determining means you determine whether the unconscious operation selected there is room for the android is performed by, and the room determining means, the unconscious the have been unconscious operation selected by the operation selecting means comprises involuntary operation execution means to be executed by the Android, a Ndoroido control system.
前記オペレータによる操作命令を受信する受信手段、Receiving means for receiving an operation command by the operator;
前記受信手段によって受信された操作命令に従う命令動作を前記アンドロイドに実行させる制御データを出力する制御データ出力手段、Control data output means for outputting control data for causing the android to execute a command operation according to the operation command received by the receiving means;
前記制御データ出力手段から出力された制御データに応じて、前記アンドロイドに設けられるアクチュエータを駆動する駆動手段、Drive means for driving an actuator provided in the android in accordance with the control data output from the control data output means,
前記制御データ出力手段から前記制御データが出力された後に、前記アンドロイドに実行させる無意識動作を選択する無意識動作選択手段、After the control data is output from the control data output means, unconscious action selection means for selecting an unconscious action to be executed by the android,
前記無意識動作選択手段によって選択された無意識動作を前記アンドロイドが実行する余地があるか否かを判断する余地判断手段、およびRoom determination means for determining whether or not there is room for the android to execute the unconscious action selected by the unconscious action selection means; and
前記余地判断手段によって実行する余地があると判断されたとき、前記無意識動作選択手段によって選択された無意識動作を前記アンドロイドに実行させる無意識動作実行手段を備える、アンドロイド制御システム。An android control system, comprising: an unconscious operation execution unit that causes the android to execute the unconscious operation selected by the unconscious operation selection unit when it is determined that there is room to be executed by the room determination unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006195163A JP5162852B2 (en) | 2006-07-18 | 2006-07-18 | Android control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006195163A JP5162852B2 (en) | 2006-07-18 | 2006-07-18 | Android control system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012063618A Division JP5296898B2 (en) | 2012-03-21 | 2012-03-21 | Android control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008023604A JP2008023604A (en) | 2008-02-07 |
JP5162852B2 true JP5162852B2 (en) | 2013-03-13 |
Family
ID=39114770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006195163A Active JP5162852B2 (en) | 2006-07-18 | 2006-07-18 | Android control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5162852B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8260460B2 (en) * | 2009-09-22 | 2012-09-04 | GM Global Technology Operations LLC | Interactive robot control system and method of use |
JP5850560B2 (en) * | 2010-07-23 | 2016-02-03 | 株式会社国際電気通信基礎技術研究所 | Remote control robot |
KR101772974B1 (en) * | 2010-12-21 | 2017-09-12 | 삼성전자주식회사 | Method for generating human-like motion of humanoid robot |
KR101209951B1 (en) | 2011-06-10 | 2012-12-07 | 주식회사 캐스트이즈 | Apparatus and method for conducting related operations upon occurrence of an android application launch request prior to the launch of the application |
CN105881543A (en) * | 2014-11-26 | 2016-08-24 | 李书申 | Humanoid intelligent robot and working method thereof |
WO2018008385A1 (en) * | 2016-07-05 | 2018-01-11 | Groove X株式会社 | Autonomous robot |
JP6572943B2 (en) * | 2017-06-23 | 2019-09-11 | カシオ計算機株式会社 | Robot, robot control method and program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11149315A (en) * | 1997-11-19 | 1999-06-02 | Mitsubishi Heavy Ind Ltd | Robot control system |
JP2002307354A (en) * | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | Electronic toy |
JP4316819B2 (en) * | 2001-03-16 | 2009-08-19 | 株式会社バンダイ | Robot control apparatus, robot control method, program, and storage medium |
JP2003181784A (en) * | 2001-12-19 | 2003-07-02 | Sanyo Electric Co Ltd | Automatic answering robot |
JP2005193331A (en) * | 2004-01-06 | 2005-07-21 | Sony Corp | Robot device and its emotional expression method |
JP4713846B2 (en) * | 2004-04-30 | 2011-06-29 | 独立行政法人科学技術振興機構 | Robot remote control system |
JP2005329515A (en) * | 2004-05-21 | 2005-12-02 | Hitachi Ltd | Service robot system |
JP4488811B2 (en) * | 2004-06-30 | 2010-06-23 | 川崎重工業株式会社 | Robot control method and robot system |
-
2006
- 2006-07-18 JP JP2006195163A patent/JP5162852B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008023604A (en) | 2008-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5162852B2 (en) | Android control system | |
JP5296898B2 (en) | Android control system | |
JP5751610B2 (en) | Conversation robot | |
JP7517390B2 (en) | COMMUNICATION SUPPORT PROGRAM, COMMUNICATION SUPPORT METHOD, COMMUNICATION SUPPORT SYSTEM, TERMINAL DEVICE, AND NON-VERBAL EXPRESSION PROGRAM | |
CN111002303B (en) | Recognition device, robot, recognition method, and storage medium | |
JP7012953B2 (en) | Sensory stimulation presentation system, program and method | |
WO2019087495A1 (en) | Information processing device, information processing method, and program | |
KR20070029794A (en) | A method and a system for communication between a user and a system | |
WO2019138619A1 (en) | Information processing device, information processing method and program | |
JP2018051701A (en) | Communication apparatus | |
JP2024009862A (en) | Information processing apparatus, information processing method, and program | |
JP7259447B2 (en) | Speaker detection system, speaker detection method and program | |
JP2006088276A (en) | Motion generation system | |
JP6893410B2 (en) | Communication robot | |
JP2015150620A (en) | robot control system and robot control program | |
JP7435641B2 (en) | Control device, robot, control method and program | |
KR20210100831A (en) | System and method for providing sign language translation service based on artificial intelligence | |
JP7106097B2 (en) | telepresence system | |
JP5055486B2 (en) | Remote operation android utterance control system | |
JP6972526B2 (en) | Content providing device, content providing method, and program | |
JP6502865B2 (en) | Conversation support system, conversation support device and conversation support program | |
JP6712303B2 (en) | Conversation support system, conversation support device, and conversation support program | |
KR20210100832A (en) | System and method for providing sign language translation service based on artificial intelligence that judges emotional stats of the user | |
JP4735965B2 (en) | Remote communication system | |
JP7133840B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090617 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110708 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120321 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120329 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121203 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151228 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5162852 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |