JP2005211232A - Communication support apparatus - Google Patents

Communication support apparatus Download PDF

Info

Publication number
JP2005211232A
JP2005211232A JP2004020369A JP2004020369A JP2005211232A JP 2005211232 A JP2005211232 A JP 2005211232A JP 2004020369 A JP2004020369 A JP 2004020369A JP 2004020369 A JP2004020369 A JP 2004020369A JP 2005211232 A JP2005211232 A JP 2005211232A
Authority
JP
Japan
Prior art keywords
communication
data
communication support
support apparatus
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004020369A
Other languages
Japanese (ja)
Inventor
Katsuyuki Shudo
勝行 首藤
Kenji Narisawa
賢司 成澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004020369A priority Critical patent/JP2005211232A/en
Publication of JP2005211232A publication Critical patent/JP2005211232A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily communicate with an opposite party through a communication support apparatus. <P>SOLUTION: A communication support apparatus (1) is provided for performing communication between a plurality of apparatuses by exchanging data owned by them respectively with each other, and the data include at least self introduction data indicating the communication support apparatus (1) itself or a user using the apparatus. Also, the communication support apparatus (1) is provided with: a radio communication means (60) for transmitting and receiving the data; a storage means (52) for preserving the data; and an output means (11) for displaying the data on a screen or an output means (23) for outputting them by voice. The radio communication means (60) can be switched to an individual communication mode in which the plurality of apparatuss can be connected with each other and a base station connection mode in which the access point of the Internet can be connected and is set to the individual communication mode when searching a communication opposite party. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、コミュニケーションロボットなどに応用可能なコミュニケーション支援装置に関するものである。   The present invention relates to a communication support apparatus applicable to a communication robot or the like.

従来から、モバイルユーザ向けの情報案内における個人情報案内方法と、その装置などが提案されている(例えば、特許文献1参照)。
特開平11−252003号公報
2. Description of the Related Art Conventionally, a personal information guidance method and information device for information guidance for mobile users have been proposed (for example, see Patent Document 1).
Japanese Patent Laid-Open No. 11-252003

しかしながら、上記のような従来のものは、位置情報と日時情報とを訪問履歴データベースに記録して、所定の場所・時間に関して情報を管理・検索するものであり、日常的なコミュニケーションを支援するものではない。   However, the conventional system as described above records position information and date / time information in a visit history database, and manages and retrieves information regarding a predetermined place and time, and supports daily communication. is not.

すなわち、例えば、日常生活でコミュニケーションしたい相手を探して、条件に合う相手に出会ったときに情報交換を行うなど、装置を介して相手と気軽にコミュニケーションすることはできないという問題があった。   That is, for example, there is a problem that it is not possible to easily communicate with the other party through the device, such as searching for a partner who wants to communicate in daily life and exchanging information when meeting a partner who meets the conditions.

そこで、本発明が解決しようとする課題は、装置を介して相手と気軽にコミュニケーションすることのできるコミュニケーション支援装置を提供することにある。   Therefore, a problem to be solved by the present invention is to provide a communication support apparatus that can easily communicate with a partner via the apparatus.

本発明は上記課題を解決するものであって、請求項1に係る発明は、複数の装置に搭載され、前記装置がそれぞれ所有するデータをお互いに交換してコミュニケーションをとるためのコミュニケーション支援装置であって、前記データには、少なくとも前記装置自身または前記装置を使用するユーザを表す自己紹介データを含み、前記データを送受信する無線通信手段と、前記データを保存する記憶手段と、前記データを画面表示または音声出力する出力手段とを備えたコミュニケーション支援装置である。   The present invention solves the above-mentioned problems, and the invention according to claim 1 is a communication support device mounted on a plurality of devices for exchanging data owned by each of the devices and communicating with each other. The data includes at least self-introduction data representing the device itself or a user who uses the device, wireless communication means for transmitting and receiving the data, storage means for storing the data, and the data on the screen It is a communication support apparatus provided with the output means to display or sound-output.

請求項2に係る発明は、請求項1記載の発明において、前記無線通信手段は、複数の装置どうしで接続可能な個別通信モードと、インターネットのアクセスポイントに接続可能な基地局接続モードとを切り換え可能で、コミュニケーション相手をサーチするときは前記個別通信モードに設定されるコミュニケーション支援装置である。   The invention according to claim 2 is the invention according to claim 1, wherein the wireless communication means switches between an individual communication mode connectable between a plurality of devices and a base station connection mode connectable to an Internet access point. The communication support apparatus is set to the individual communication mode when searching for a communication partner.

請求項3に係る発明は、請求項1記載の発明において、前記自己紹介データには、コミュニケーション相手の装置又はそのユーザを絞り込む希望データを含むコミュニケーション支援装置である。   The invention according to claim 3 is the communication support apparatus according to claim 1, wherein the self-introduction data includes desired data for narrowing down a communication partner apparatus or its user.

請求項4に係る発明は、請求項3記載の発明において、前記コミュニケーション情報には、コミュニケーション相手の装置から受信したデータが前記希望データに相応している程度に応じて変化する感情表現に相当する内容を含むコミュニケーション支援装置である。   According to a fourth aspect of the invention, in the third aspect of the invention, the communication information corresponds to an emotional expression that changes according to the degree to which the data received from the communication partner device corresponds to the desired data. It is a communication support device including contents.

本発明は以上のように、複数の装置に搭載され、前記装置がそれぞれ所有するデータをお互いに交換してコミュニケーションをとるためのコミュニケーション支援装置であって、前記データには、少なくとも前記装置自身または前記装置を使用するユーザを表す自己紹介データを含み、前記データを送受信する無線通信手段と、前記データを保存する記憶手段と、前記データを画面表示または音声出力する出力手段とを備えた構成としたので、装置を介して相手と気軽にコミュニケーションすることができ、例えば、日常生活でコミュニケーションしたい相手を探して、条件に合う相手に出会ったときに情報交換を行うことができるなどの効果がある。   As described above, the present invention is a communication support device that is mounted on a plurality of devices and communicates by exchanging data owned by each of the devices, and the data includes at least the device itself or A configuration comprising: wireless communication means for transmitting and receiving the data including self-introduction data representing a user who uses the apparatus; storage means for storing the data; and output means for displaying the data on a screen or outputting sound. As a result, you can easily communicate with the other party via the device. For example, you can search for a person you want to communicate with in your daily life and exchange information when you meet a partner who meets the conditions. .

本発明の実施の形態を、図面を参照して説明する。   Embodiments of the present invention will be described with reference to the drawings.

図1は、本発明のコミュニケーション支援装置の一実施形態を示す概略的正面図であり、このコミュニケーション支援装置1は、猿の形態をしたロボットとして構成されている。   FIG. 1 is a schematic front view showing an embodiment of a communication support apparatus according to the present invention. The communication support apparatus 1 is configured as a monkey-shaped robot.

このロボット(コミュニケーション支援装置)1は、胴体部10、頭部20および4本の脚部30,40(前脚30a,30bおよび後脚40a,40b)で構成される。そして、頭部20および4本の脚部30,40などの駆動が可能で、動作による感情表現を実現できるものである。   The robot (communication support device) 1 includes a body part 10, a head part 20, and four leg parts 30 and 40 (front legs 30a and 30b and rear legs 40a and 40b). The head 20 and the four leg portions 30 and 40 can be driven, and emotional expression by movement can be realized.

すなわち、頭部20は、胴体部10に取り付けられる首に相当する部位が、ヨー(回動する)とピッチ(前後に動く)の2自由度に構成されている。   In other words, the head 20 has a portion corresponding to the neck attached to the body portion 10 with two degrees of freedom of yaw (turning) and pitch (moving back and forth).

各前脚30は、胴体部10に取り付けられる肩に相当する部位が、ピッチ(前後に動く)とロール(左右に動く)の2自由度に構成され、また、肘に相当する部位が、胴体部10の内側に曲がるようなロール方向の1自由度に構成されている。   Each front leg 30 has a portion corresponding to a shoulder attached to the body portion 10 with two degrees of freedom of pitch (moves back and forth) and roll (moves left and right), and a portion corresponding to the elbow is a body portion. 10 is configured with one degree of freedom in the roll direction so as to bend inward.

各後脚40は、胴体部10に取り付けられる脚の付け根に相当する部位が、ピッチ(前後に動く)とロール(左右に動く)の2自由度に構成され、また、膝に相当する部位が、ピッチ方向の1自由度に構成されている。   Each rear leg 40 has a portion corresponding to the base of the leg attached to the body portion 10 with two degrees of freedom of pitch (moving back and forth) and roll (moving left and right), and a portion corresponding to the knee. The pitch direction is one degree of freedom.

このような各関節に相当する部位の自由度は、例えばモータなどの適宜のアクチュエータを用いることで実現可能であり、この種のアクチュエータ(モータ)およびその駆動機構は周知のものが利用可能であるから、その説明は省略する。   Such a degree of freedom of the portion corresponding to each joint can be realized by using an appropriate actuator such as a motor, for example, and this type of actuator (motor) and its drive mechanism can use well-known ones. Therefore, the description thereof is omitted.

ロボット(コミュニケーション支援装置)1の頭部20の目に相当する部位には、CCD(Charge Coupled Device)カメラ21a,21bが取り付けてあり、画像を入力することが可能である。   CCD (Charge Coupled Device) cameras 21a and 21b are attached to portions corresponding to the eyes of the head 20 of the robot (communication support device) 1, and images can be input.

また、ロボット(コミュニケーション支援装置)1の頭部20の耳に相当する部位には、マイクロフォン22a,22bが取り付けてあり、音声を入力することが可能である。   In addition, microphones 22a and 22b are attached to portions corresponding to the ears of the head 20 of the robot (communication support device) 1, and voice can be input.

また、ロボット(コミュニケーション支援装置)1の頭部20の口に相当する部位には、スピーカ23が取り付けてあり、音声を出力することが可能である。   In addition, a speaker 23 is attached to a portion corresponding to the mouth of the head 20 of the robot (communication support device) 1 and can output sound.

また、ロボット(コミュニケーション支援装置)1の胴体部10の胸に相当する部位には、タッチパネル付きのカラーLCD(Liquid Crystal Display)表示器11が取り付けてある。   A color LCD (Liquid Crystal Display) display 11 with a touch panel is attached to a portion corresponding to the chest of the body 10 of the robot (communication support device) 1.

このタッチパネル付きLCD表示器11は、ユーザが音声入力してロボット(コミュニケーション支援装置)1が認識したデータを文字データとして表示することでユーザがそのデータを確認したり、相手方から送信されてきたデータを表示することができる。   This LCD display 11 with a touch panel displays data recognized by the robot (communication support apparatus) 1 by voice input by the user and is displayed as character data so that the user can confirm the data or data transmitted from the other party. Can be displayed.

また、タッチパネル付きLCD表示器11の画面の色表示や具体的な文字表示で感情表現を実現することが可能である。   It is also possible to realize emotional expression by color display of the screen of the LCD display 11 with a touch panel or specific character display.

例えば、画面全体を赤くしたり、「ぷんぷん」や「怒ったぞ!」の文字を表示することで、怒った感情を表現する。また、画面全体をオレンジ色にしたり、「にこにこ」や「嬉しい!」と文字を表示することで、嬉しい感情を表現する。また、画面全体を青色にしたり、「えーん」や「哀しい」と文字を表示することで、哀しい感情を表現する。   For example, an angry emotion is expressed by making the entire screen red or displaying characters such as “Pumpun” and “Angry!”. In addition, we express happy feelings by making the whole screen orange or displaying characters such as “Niko Niko” or “I am happy!”. In addition, a sad feeling is expressed by making the entire screen blue or displaying characters such as “en” or “sad”.

さらに、ロボット(コミュニケーション支援装置)1の胴体部10の背中に相当する部位には、無線通信用のアンテナ12が取り付けてある。   Further, an antenna 12 for wireless communication is attached to a portion corresponding to the back of the body portion 10 of the robot (communication support device) 1.

図2は、コミュニケーション支援装置(ロボット)1の制御装置を示すブロック図であり、この制御装置50は、全体の制御を行うメインCPU(Central Processing Unit)51を備えている。   FIG. 2 is a block diagram showing a control device of the communication support device (robot) 1. The control device 50 includes a main CPU (Central Processing Unit) 51 that performs overall control.

メインCPU51には、メモリ52およびサブCPU53が接続され、サブCPU53にはシリアルバス54を介して、14自由度の各モータ制御ユニット55が接続されている。   A memory 52 and a sub CPU 53 are connected to the main CPU 51, and motor control units 55 with 14 degrees of freedom are connected to the sub CPU 53 via a serial bus 54.

ここで、「14自由度」とは、頭部20のヨーとピッチの2自由度、各前脚30の肩に相当する部位のピッチとロールの2自由度および肘に相当する部位のロール方向の1自由度、各後脚40の脚の付け根に相当する部位のピッチとロールの2自由度および膝に相当する部位のピッチ方向の1自由度、を合わせたものである。   Here, “14 degrees of freedom” means two degrees of freedom of the yaw and pitch of the head 20, two degrees of freedom of the pitch and roll corresponding to the shoulder of each front leg 30, and the direction of the roll of the part corresponding to the elbow. This is a combination of one degree of freedom, the pitch of the portion corresponding to the base of each rear leg 40, two degrees of freedom of the roll, and one degree of freedom in the pitch direction of the portion corresponding to the knee.

各モータ制御ユニット55は、モータ制御CPU56と、モータ制御CPU56に接続された駆動モータ57および角度センサ58とを備える。このようなモータ制御ユニット55は、14自由度にそれぞれ1個ずつ合計14個設けることもできるが、例えば、頭部20の2自由度に1つ、各前脚30の3自由度に1つずつ、各後脚40の3自由度に1つずつ、の合計5個で構成することができる。   Each motor control unit 55 includes a motor control CPU 56, a drive motor 57 and an angle sensor 58 connected to the motor control CPU 56. For example, one motor control unit 55 may be provided for each of the 14 degrees of freedom. For example, one motor control unit 55 is provided for every two degrees of freedom of the head 20 and one for each of the three degrees of freedom of the front legs 30. , One for each of the three degrees of freedom of each rear leg 40, and a total of five can be configured.

例えば、片方の前脚30の3自由度に1つ設けたモータ制御ユニット55を例に挙げて説明すると、図2に示すように、モータ制御CPU56には、肩ピッチギアモータとしての駆動モータ57aおよび肩ピッチ回転センサとしての角度センサ58aと、肩ロールギアモータとしての駆動モータ57bおよび肩ロール回転センサとしての角度センサ58bと、肘ロールギアモータとしての駆動モータ57cおよび肘ロール回転センサとしての角度センサ58cとが接続される。   For example, a motor control unit 55 provided with one front leg 30 with three degrees of freedom will be described as an example. As shown in FIG. 2, the motor control CPU 56 includes a drive motor 57a as a shoulder pitch gear motor and a shoulder. An angle sensor 58a as a pitch rotation sensor, a drive motor 57b as a shoulder roll gear motor, an angle sensor 58b as a shoulder roll rotation sensor, a drive motor 57c as an elbow roll gear motor, and an angle sensor 58c as an elbow roll rotation sensor. Connected.

制御装置50をロボット(コミュニケーション支援装置)1の動作に関して説明すると、メインCPU51は、メモリ52に記憶してある動作プログラムに基づいて、所定のタイミングで各関節の角度の目標値を生成し、これをサブCPU53に送るものである。また、サブCPU53は、メインCPU51から送られた目標角度データをシリアル変換して各モータ制御ユニット55のモータ制御CPU56に送るものである。   The control device 50 will be described with respect to the operation of the robot (communication support device) 1. The main CPU 51 generates a target value of the angle of each joint at a predetermined timing based on the operation program stored in the memory 52. Is sent to the sub CPU 53. The sub CPU 53 serially converts the target angle data sent from the main CPU 51 and sends it to the motor control CPU 56 of each motor control unit 55.

各モータ制御ユニット55のモータ制御CPU56は、サブCPU53から送られた目標角度データと、各関節に取り付けられた角度センサ58の出力とを比較して、両者が同じになるように駆動モータ57の回転を制御するものである。これにより、各関節は動作プログラムに基づく所定の角度となるように制御される。   The motor control CPU 56 of each motor control unit 55 compares the target angle data sent from the sub CPU 53 with the output of the angle sensor 58 attached to each joint, so that both are the same. It controls rotation. Thus, each joint is controlled to have a predetermined angle based on the operation program.

また、制御装置50のメインCPU51には、無線通信回路60が接続されている。無線通信回路60は、無線通信用アンテナ12を介して文字データや画像データを送受信するものである。   A wireless communication circuit 60 is connected to the main CPU 51 of the control device 50. The wireless communication circuit 60 transmits and receives character data and image data via the wireless communication antenna 12.

無線通信回路60は、後述するように、複数のロボット(コミュニケーション支援装置)1,1どうしが1対1で接続できるアドホックモードなどの個別通信モードと、インターネットの無線アクセスポイントに接続可能なインフラストラクチャモードなどの基地局接続モードとを切り換え可能で、コミュニケーション相手をサーチするときは個別通信モードに設定されるものである。   As will be described later, the wireless communication circuit 60 includes an individual communication mode such as an ad hoc mode in which a plurality of robots (communication support apparatuses) 1 and 1 can be connected one by one, and an infrastructure that can be connected to a wireless access point on the Internet. The base station connection mode such as the mode can be switched, and when searching for a communication partner, the individual communication mode is set.

また、メモリ52には、コミュニケーションの支援に必要な各種のプログラムを記憶してある他、コミュニケーションに用いる自己紹介データを保存するものである。   The memory 52 stores various programs necessary for communication support and stores self-introduction data used for communication.

この自己紹介データは、後述するように、ロボット(コミュニケーション支援装置)1又はそのロボット1を使用するユーザの自己紹介データであり、コミュニケーション相手のロボット(コミュニケーション支援装置)1又はそのユーザを絞り込むための希望データを含む。   As will be described later, this self-introduction data is self-introduction data of the robot (communication support apparatus) 1 or a user who uses the robot 1, and is used for narrowing down the communication partner robot (communication support apparatus) 1 or the user. Includes desired data.

また、メインCPU51には、タッチパネル付きLCD表示器11が接続されている。タッチパネル付きLCD表示器11は、送受信する文字データや画像データを表示するものであり、また、タッチパネル付きであるため、直接コマンドの選択や文字入力をすることが可能である。   Further, the LCD display 11 with a touch panel is connected to the main CPU 51. The LCD display 11 with a touch panel displays character data and image data to be transmitted and received, and since it has a touch panel, it is possible to directly select commands and input characters.

タッチパネル付きLCD表示器11は、後述するように、自己紹介データを含むコミュニケーション情報を画面表示するものであり、このコミュニケーション情報には、コミュニケーション相手のロボット(コミュニケーション支援装置)1から受信したデータが希望データに相応している程度に応じて変化する感情表現に相当する内容を含む。   As will be described later, the LCD display 11 with a touch panel displays communication information including self-introduction data on the screen, and the data received from the communication partner robot (communication support device) 1 is desired for this communication information. It includes content corresponding to emotional expressions that change according to the degree corresponding to the data.

また、メインCPU51には、CCDカメラ21a,21bが接続され、CCDカメラ21a,21bで撮像した画像データを取り込んで、タッチパネル付きLCD表示器11に表示することができ、また、メモリ52に記録することができる。   The main CPU 51 is connected to the CCD cameras 21 a and 21 b, and can capture image data captured by the CCD cameras 21 a and 21 b and display it on the LCD display 11 with a touch panel. be able to.

また、メインCPU51には、マイクロフォン22a,22bが接続され、マイクロフォン22a,22bで取り込んだ音声入力データをメモリ52に記録することができ、また、音声認識ソフトでそのデータを文字化してタッチパネル付きLCD表示器11に表示することができる。   Further, microphones 22a and 22b are connected to the main CPU 51, and voice input data captured by the microphones 22a and 22b can be recorded in the memory 52, and the data is converted into text by voice recognition software and an LCD with a touch panel. It can be displayed on the display 11.

さらに、メインCPU51には、スピーカ23が接続され、任意のメッセージや自己紹介データを含むコミュニケーション情報をスピーカ23から音声出力することができる。   Furthermore, a speaker 23 is connected to the main CPU 51, and communication information including an arbitrary message and self-introduction data can be output from the speaker 23.

図3は、コミュニケーション支援装置(ロボット)1の2種類の通信接続モードを示す模式図、図4は、通信接続モードの設定方法を示すフローチャートである。   FIG. 3 is a schematic diagram showing two types of communication connection modes of the communication support apparatus (robot) 1, and FIG. 4 is a flowchart showing a method for setting the communication connection mode.

図3に示すように、コミュニケーション支援装置(ロボット)1は、コミュニケーション支援装置(ロボット)1,1間で1対1で接続する個別通信モードと、インターネットの無線アクセスポイント(無線LAN基地局)に接続する基地局接続モードを選択できるものである。   As shown in FIG. 3, the communication support apparatus (robot) 1 is connected to the individual communication mode in which the communication support apparatuses (robots) 1 and 1 are connected in a one-to-one relationship and the wireless access point (wireless LAN base station) of the Internet. The base station connection mode to be connected can be selected.

そのため、ユーザは、ユーザは使用したい状況を考えて、図4に示すように、個別通信モードまたは基地局接続モードのいずれかを選択して設定する(ステップS1)。このモードの切り替えは、タッチパネル付きLCD表示器11にモード選択画面を表示し、ユーザがタッチパネルを操作してどちらかのモードを選択することで設定できる。   Therefore, the user selects and sets either the individual communication mode or the base station connection mode as shown in FIG. 4 in consideration of the situation that the user wants to use (step S1). This mode switching can be set by displaying a mode selection screen on the LCD display 11 with a touch panel and operating the touch panel to select one of the modes.

コミュニケーション相手をサーチするときは、個別通信モードに設定する。   When searching for a communication partner, set the individual communication mode.

例えば、図示しないユーザAがロボット(コミュニケーション支援装置)1Aを持って移動中で、そのロボット(コミュニケーション支援装置)1Aが個別通信モードで通信相手をサーチしていたとする。   For example, it is assumed that a user A (not shown) is moving with a robot (communication support apparatus) 1A and the robot (communication support apparatus) 1A searches for a communication partner in the individual communication mode.

このとき、図示しないユーザBもまた同様のロボット(コミュニケーション支援装置)1Bを持っていて、そのロボット(コミュニケーション支援装置)1Bも個別通信モードで通信相手をサーチしていたとする。   At this time, it is assumed that a user B (not shown) also has a similar robot (communication support apparatus) 1B, and the robot (communication support apparatus) 1B also searches for a communication partner in the individual communication mode.

ユーザAとユーザBとの距離が所定の通信可能範囲まで近づくと、ロボット(コミュニケーション支援装置)1Aがロボット(コミュニケーション支援装置)1Bを検出してリンクを行い、ロボット(コミュニケーション支援装置)1Bと通信できる状態にする。   When the distance between the user A and the user B approaches a predetermined communicable range, the robot (communication support apparatus) 1A detects the robot (communication support apparatus) 1B and links to communicate with the robot (communication support apparatus) 1B. Make it ready.

続いて、ロボット(コミュニケーション支援装置)1A,1B間で具体的な通信を開始する。ここで、自己紹介を行い、相手が反応を示せば、コミュニケーションを開始することができる。   Subsequently, specific communication is started between the robots (communication support apparatuses) 1A and 1B. Here, if you introduce yourself and the other party shows a response, you can start communication.

このコミュニケーションにおいて、ユーザAとユーザBがもっとお互いの情報を知りたい状況まで発展した場合は、ロボット(コミュニケーション支援装置)1A,1Bを介してインターネット上のユーザ個人のホームページのURL(Uniform Resource Locator)等を教えることが可能である。   In this communication, when user A and user B want to know more about each other's information, the URL (Uniform Resource Locator) of the user's personal home page on the Internet via robots (communication support devices) 1A and 1B Etc. can be taught.

そして、近くに無線LAN(Local Area Network)基地局70があれば、通信モードを基地局接続モードに切り替えることで、その無線LAN基地局70からルータ71およびサーバ72を介して、インターネット100に接続された任意のサーバ101,102,103,…にアクセスでき、相手ユーザのホームページを閲覧することが可能である。   If there is a wireless local area network (LAN) base station 70 nearby, the wireless LAN base station 70 connects to the Internet 100 via the router 71 and the server 72 by switching the communication mode to the base station connection mode. Can access any of the servers 101, 102, 103,..., And browse the home page of the other user.

図5は、コミュニケーション支援装置(ロボット)1の個別通信モードによるやりとりを示すフローチャートである。   FIG. 5 is a flowchart showing the exchange in the individual communication mode of the communication support apparatus (robot) 1.

まず、通信接続モードが個別通信モードであるか否かを調べ(ステップS11)、個別通信モードでなければ(ステップS11のNO)終了する。   First, it is checked whether or not the communication connection mode is the individual communication mode (step S11), and if it is not the individual communication mode (NO in step S11), the process ends.

個別通信モードであれば(ステップS11のYES)、通信相手をサーチし、通信相手が見つかればリンクを行う(ステップS12)。   If it is the individual communication mode (YES in step S11), the communication partner is searched, and if a communication partner is found, a link is established (step S12).

リンクに成功しなかった場合は(ステップS13のNO)、数秒のタイマを入れ(ステップS14)、時間をおいてステップS12に戻ってサーチから再度実施する。   If the link is not successful (NO in step S13), a timer of a few seconds is set (step S14), and after a while, the process returns to step S12 to perform again from the search.

リンクした場合は(ステップS13のYES)、データ受信が可能な状態にする(ステップS15)。相手が送信してきたときはこれを受信する。   When linked (YES in step S13), data reception is enabled (step S15). When the other party sends it, it receives it.

受信データがあった場合は(ステップS16のYES)、これをタッチパネル付きLCD表示器11に表示する(ステップS17)。   If there is received data (YES in step S16), this is displayed on the LCD display 11 with a touch panel (step S17).

また、受信情報をデータベース化してメモリ52に保存する(ステップS18)。保存した内容は後でタッチパネル付きLCD表示器11に表示して確認することが可能である。   Further, the received information is converted into a database and stored in the memory 52 (step S18). The stored contents can be displayed and confirmed later on the LCD display 11 with a touch panel.

リンクして最初のデータは、ロボット(コミュニケーション支援装置)1の自己紹介データであり、例えば、ロボット(コミュニケーション支援装置)1の名前・色・成長具合などである。   The first data after linking is self-introduction data of the robot (communication support apparatus) 1, for example, the name, color, and growth of the robot (communication support apparatus) 1.

このように、ロボット(コミュニケーション支援装置)1Aの近くに同様のロボット(コミュニケーション支援装置)1Bを見つけ、相手のロボット(コミュニケーション支援装置)1Bがどのような名前・色・成長具合などであるかを知ることができる。さらに、気に入ればロボットユーザの自己紹介データを送受信して、コミュニケーションを進めていくことが可能である。   In this way, a similar robot (communication support device) 1B is found near the robot (communication support device) 1A, and the name, color, growth, etc. of the partner robot (communication support device) 1B are determined. I can know. Furthermore, if you like it, you can send and receive the robot user's self-introduction data and proceed with the communication.

また、ロボット(コミュニケーション支援装置)1は、受信したデータにより感情表現を行う。例えば、タッチパネル付きLCD表示器11の表示色を変化させたり、文字で表現したり、脚部30,40のアクチュエータを駆動して、万歳をしたり、頭をうなだれたり、さまざまな具体的な動作として表現することが可能である。   Further, the robot (communication support device) 1 performs emotion expression based on the received data. For example, changing the display color of the LCD display 11 with a touch panel, expressing it with characters, driving the actuators of the leg portions 30 and 40, making various years of operation, stroking the head, etc. Can be expressed as

また、ロボット(コミュニケーション支援装置)1は、受信したデータの数や喜びの感情表現をする回数の総和により、ロボット(コミュニケーション支援装置)1自身の性格を変化させたり、成長したりする。これは動作プログラムにより実現される。   Further, the robot (communication support apparatus) 1 changes or grows the character of the robot (communication support apparatus) 1 itself depending on the total number of received data and the number of times of expressing emotions of joy. This is realized by an operation program.

つぎに、ロボット(コミュニケーション支援装置)1Aが、こちらの情報を相手のロボット(コミュニケーション支援装置)1Bに送信するか否かを決める(ステップS19)。例えば、感情表現を通じて気に入らなければ(ステップS19のNO)、送信を行わずに終了する。   Next, the robot (communication support apparatus) 1A determines whether or not to transmit this information to the partner robot (communication support apparatus) 1B (step S19). For example, if the user does not like the emotion expression (NO in step S19), the process ends without performing transmission.

気に入れば(ステップS19のYES)、送信内容を選択し、必要に応じて送信内容を入力して、これを送信する(ステップS20)。これは動作プログラムにより実現される。   If you like it (YES in step S19), select the transmission content, enter the transmission content as required, and transmit it (step S20). This is realized by an operation program.

最後に送受信を終了するかどうかを決めて(ステップS21)、終了したければ(ステップS21のYES)終了する。これも動作プログラムにより実現される。   Finally, it is determined whether transmission / reception is to be ended (step S21), and if it is to be ended (YES in step S21), the process ends. This is also realized by an operation program.

継続する場合は(ステップS21のNO)、リンクの状態を確認し(ステップS22)、状態が良ければ(ステップS22のYES)ステップS15に戻って相手からのデータを受信する。   When continuing (NO in step S21), the state of the link is confirmed (step S22). If the state is good (YES in step S22), the process returns to step S15 to receive data from the other party.

このようにして、ロボット(コミュニケーション支援装置)1をきっかけにコミュニケーションを行い、さらに情報交換と同時に、ロボット(コミュニケーション支援装置)1の感情表現・成長・性格形成を実現してアクティブに楽しむことができる。   In this way, communication can be triggered by the robot (communication support device) 1 and, at the same time as exchanging information, the emotion (expression, growth, character formation) of the robot (communication support device) 1 can be realized and actively enjoyed. .

また、ロボット(コミュニケーション支援装置)1には、予めコミュニケーションしたい相手のロボット(コミュニケーション支援装置)1やユーザの情報を入力してメモリに記憶させておく。これはタッチパネルから入力しても良いし、後述するように音声入力でも良い。   In addition, the robot (communication support device) 1 inputs information on the robot (communication support device) 1 and the user who wants to communicate in advance and stores them in the memory. This may be input from a touch panel, or may be voice input as described later.

受信したデータと予め記憶していた希望データとの一致を検出することにより、相手のロボット(コミュニケーション支援装置)1やユーザがコミュニケーション相手としての希望に近いか遠いか判断することが可能である。   By detecting a match between the received data and the desired data stored in advance, it is possible to determine whether the partner robot (communication support device) 1 or the user is close to or far from the desired communication partner.

すなわち、相手のロボット(コミュニケーション支援装置)1に対しては、「ロボットの色は白」、ロボット成長プログラムにおいて「壮年期」、「グルメ情報を記憶している」などのキーワードを比較する。また、相手のユーザに対しては、「パソコンが趣味」、「和食が好き」、「駅前の情報を知りたい」などに含まれるキーワードを比較する。ここで、希望データと受信データを比較して一致した個数により、ロボット(コミュニケーション支援装置)1は感情表現を行う。これは、一致したデータ数により表現を変えるものであり、ユーザの気持ちを代わって表すイメージである。   That is, for the robot (communication support device) 1 of the partner, keywords such as “robot color is white”, “mature period”, “stores gourmet information” in the robot growth program are compared. For the other user, keywords included in “personal computer is a hobby”, “I like Japanese food”, “I want to know information in front of the station”, and the like are compared. Here, the robot (communication support device) 1 expresses emotions by comparing the desired data with the received data. This is an image that changes the expression according to the number of matched data and expresses the feeling of the user instead.

図6は、コミュニケーション支援装置(ロボット)1の感情表現を示すフローチャートであり、図5に示すフローチャートのステップS18の感情表現の部分に相当するものである。   FIG. 6 is a flowchart showing the emotional expression of the communication support apparatus (robot) 1 and corresponds to the emotional expression part in step S18 of the flowchart shown in FIG.

すなわち、受信したデータと登録してある希望データ(キーワード)を比較して、一致するキーワードの数を計数する。   That is, the received data and the registered desired data (keyword) are compared, and the number of matching keywords is counted.

例えば、希望データ(キーワード)と一致する受信データが0個の場合は(ステップS31のNO)、悲しみを表現する(ステップS32)。   For example, when there is no received data that matches the desired data (keyword) (NO in step S31), sadness is expressed (step S32).

また、希望データ(キーワード)と一致する受信データが3個以上ある場合は(ステップS33のYES)、喜びを表現する(ステップS35)。   If there are three or more received data that matches the desired data (keyword) (YES in step S33), joy is expressed (step S35).

そして、希望データ(キーワード)と一致する受信データが1〜2個の場合は(ステップS33のNO)、通常の状態とする(ステップS34)。   If the received data that matches the desired data (keyword) is 1 to 2 (NO in step S33), the normal state is set (step S34).

これにより、受信データがどのようなものであるかによってロボット(コミュニケーション支援装置)1の動作を楽しむことができ、エンターテインメント性を高めることができる。一致する受信データ数は3個に限らず、適宜設定することができる。   Thereby, the operation of the robot (communication support device) 1 can be enjoyed depending on what the received data is, and the entertainment property can be enhanced. The number of matching received data is not limited to three and can be set as appropriate.

図7は、コミュニケーション支援装置(ロボット)1の送信内容のレベルを示すフローチャートであり、図5に示すフローチャートのステップS20に相当するものである。   FIG. 7 is a flowchart showing the level of transmission contents of the communication support apparatus (robot) 1 and corresponds to step S20 of the flowchart shown in FIG.

すなわち、コミュニケーションにおける親密度をレベルで表し、リンク後に最初に受信データをデータベース化したときのレベルを1として、親密度が深まるにつれて徐々にレベルが上がる設定である。   That is, the familiarity in communication is represented by a level, and the level when receiving data is first converted into a database after linking is set to 1, and the level gradually increases as the familiarity deepens.

このレベル値の設定は、タッチパネル付きLCD表示器11のタッチパネルで入力してもよいし、音声入力してもよい。また、リンク後の受信回数を自動的に加算してレベル値としてもよい。この場合、送信・受信を繰り返すことによりレベルが上がり、親密度が深まることになる。   The setting of the level value may be input on the touch panel of the LCD display 11 with a touch panel or may be input by voice. Further, the number of receptions after linking may be automatically added to obtain a level value. In this case, repeating the transmission / reception increases the level and deepens the intimacy.

レベルに対応して送信内容が決まるようになっており、送信時にレベルをチェックする。レベル1であれば(ステップS41のYES)、ロボット(コミュニケーション支援装置)1のプロフィール(自己紹介)を選択して(ステップS42)、これを送信する(ステップS49)。   The transmission contents are determined according to the level, and the level is checked at the time of transmission. If it is level 1 (YES in step S41), the profile (self-introduction) of the robot (communication support apparatus) 1 is selected (step S42) and transmitted (step S49).

また、レベル2であれば(ステップS43のYES)、ユーザのプロフィール(自己紹介)を選択して(ステップS44)、これを送信する(ステップS49)。   If it is level 2 (YES in step S43), the user's profile (self-introduction) is selected (step S44) and transmitted (step S49).

また、レベル3であれば(ステップS45のYES)、例えばユーザのホームページのURLなど、より詳しい情報を選択して(ステップS46)、これを送信する(ステップS49)。   If it is level 3 (YES in step S45), for example, more detailed information such as the URL of the user's home page is selected (step S46) and transmitted (step S49).

親密度がこの段階であれば、インターネットの無線アクセスポイント(無線LAN基地局)に接続する基地局接続モードに切り替えて、このホームページにアクセスすることで、ユーザのさまざまな情報を得ることができる。   If the intimacy is at this stage, various information about the user can be obtained by switching to a base station connection mode for connecting to a wireless access point (wireless LAN base station) on the Internet and accessing this home page.

さらに、レベル4であれば(ステップS47のYES)、例えばお気に入りの写真などの画像や自分の顔写真などの画像を選択して(ステップS48)、これを送信する(ステップS49)。   Furthermore, if it is level 4 (YES in step S47), for example, an image such as a favorite photograph or an image such as one's own face photograph is selected (step S48) and transmitted (step S49).

この画像は、ロボット(コミュニケーション支援装置)1に搭載されているCCDカメラ21a,21bで撮影した画像でもよく、送信画像によって受信相手に現在位置を知らせることなども可能である。   This image may be an image taken by the CCD cameras 21a and 21b mounted on the robot (communication support apparatus) 1, and it is possible to notify the receiving party of the current position by a transmission image.

これらのプロフィール、URL、画像などのデータは、即時性という意味で、予めメモリに記憶してある内容であることが基本的に好ましいが、その場で入力することももちろん可能である。また、レベルに対応する送信内容も、適宜設定することができる。   These profiles, URLs, images, and other data are basically preferably stored in advance in memory in terms of immediacy, but can of course be input on the spot. Also, the transmission content corresponding to the level can be set as appropriate.

図8は、本発明のコミュニケーション支援装置の他の実施形態の動作を示すフローチャートであり、この実施形態は、図1〜図3に示すコミュニケーション支援装置(ロボット)1を介して会話することで、さらにコミュニケーションの意味合いを強めたものである。   FIG. 8 is a flowchart showing the operation of another embodiment of the communication support apparatus of the present invention. In this embodiment, conversation is performed via the communication support apparatus (robot) 1 shown in FIGS. Furthermore, the meaning of communication was strengthened.

この実施形態の場合は、ロボット(コミュニケーション支援装置)1を介して会話するため、電話とは異なり、より娯楽的な使い方になって、会話の交信を楽しむことができるものである。   In the case of this embodiment, since the conversation is performed via the robot (communication support device) 1, unlike the telephone, the conversation can be enjoyed in a more entertaining manner.

具体的には、ロボット(コミュニケーション支援装置)1に音声入力し、これを音声認識ソフトにより文字化して、送信する。受信側は、送られてきた文字データを音声合成ソフトにより音声に変換して出力する。音声はロボットボイスなど好みの音質で出力できるので、これを楽しむことが可能である。   Specifically, a voice is input to the robot (communication support apparatus) 1, and this is converted into text by voice recognition software and transmitted. The receiving side converts the sent character data into speech using speech synthesis software and outputs the speech. Voice can be output with your favorite sound quality, such as robot voice, so you can enjoy it.

図8に示すように、まず、データ受信を行い(ステップS51)、受信データがある場合は(ステップS52のYES)、受信した文字データをタッチパネル付きLCD表示器11に表示し(ステップS53)、また、同時に音声合成・音声出力する(ステップS54)。音質は別途設定しておく。   As shown in FIG. 8, first, data is received (step S51). If there is received data (YES in step S52), the received character data is displayed on the LCD display 11 with a touch panel (step S53). Simultaneously, voice synthesis and voice output are performed (step S54). Set the sound quality separately.

続いて、会話を継続する場合は(ステップS55のYES)、会話の内容を音声入力し(ステップS56)、これを音声認識して(ステップS57)、その内容を文字でタッチパネル付きLCD表示器11に表示する(ステップS58)。   Subsequently, if the conversation is to be continued (YES in step S55), the content of the conversation is input as a voice (step S56), this is recognized as a voice (step S57), and the content is displayed as characters in the LCD display 11 with a touch panel. (Step S58).

タッチパネル付きLCD表示器11に表示された会話の内容を確認し(ステップS59)、その内容がOKであれば(ステップS59のYES)、これを送信する(ステップS60)。   The content of the conversation displayed on the LCD display 11 with the touch panel is confirmed (step S59). If the content is OK (YES in step S59), this is transmitted (step S60).

上記の説明では、コミュニケーション支援装置1を、胴体部10、頭部20および4本の脚部30,40を備えて動作を具体的に表現できるロボットとして構成したが、これに限定するものでない。   In the above description, the communication support apparatus 1 is configured as a robot that includes the body part 10, the head part 20, and the four leg parts 30 and 40, and can specifically express the operation, but is not limited thereto.

すなわち、可動部がなくても、例えば、画面にロボットのアニメーションを表示して、このアニメーションロボットを画面内で動かすことで、擬似的な感情表現をさせることが可能である。この場合、頭、手足などのメカニズムは不要である。   That is, even if there is no moving part, for example, it is possible to display a robot animation on the screen and move the animation robot within the screen to express a pseudo emotion. In this case, mechanisms such as the head and limbs are unnecessary.

そのため、コミュニケーション支援装置1を、例えば、LCD表示器と外装と通信回路・音声入出力機能を備えたPDA(Personal Digital Assistants)の形態として構成することが可能である。   Therefore, the communication support apparatus 1 can be configured, for example, in the form of a PDA (Personal Digital Assistants) having an LCD display, an exterior, a communication circuit, and a voice input / output function.

また、コミュニケーション相手が確定したら、お互いのIP(Internet Protocol)アドレスを交換し、モバイルIPなどを利用してインターネットなど公衆回線を利用してコミュニケーションすることも可能である。   When a communication partner is determined, it is also possible to exchange IP (Internet Protocol) addresses with each other and communicate using a public line such as the Internet using mobile IP or the like.

本発明のコミュニケーション支援装置は、上記のように構成されているので、下記のような各種の作用効果がある。   Since the communication support apparatus according to the present invention is configured as described above, it has the following various effects.

(1)日常生活でコミュニケーションしたい相手を探して、条件に合う相手に出会ったときに情報交換を行い、コミュニケーション支援装置を介して気軽にコミュニケーションすることができる。 (1) It is possible to search for a partner who wants to communicate in daily life, exchange information when meeting a partner who meets the conditions, and communicate easily through the communication support device.

(2)個別通信モードと基地局接続モードがあり、通信相手を探すときは、個別通信モードを選択することで、基地局までの距離が非常に遠い場合であっても全く問題がない。 (2) There are an individual communication mode and a base station connection mode, and when searching for a communication partner, there is no problem even if the distance to the base station is very long by selecting the individual communication mode.

(3)個別通信モードと基地局接続モードがあり、多くの情報源にアクセスしたいときは、基地局接続モードを選択することで、基地局を介してインターネットなどと簡単に接続することができる。 (3) There are an individual communication mode and a base station connection mode. When you want to access many information sources, you can easily connect to the Internet or the like via the base station by selecting the base station connection mode.

(4)コミュニケーションの内容に応じて、コミュニケーション支援装置(ロボット)が感情表現することができる。 (4) The communication support device (robot) can express emotions according to the content of communication.

(5)コミュニケーションの親密度に応じて、コミュニケーションの内容を変化させることが可能である。 (5) The content of communication can be changed according to the intimacy of communication.

(6)コミュニケーション支援装置はただの無線装置ではなく、感情表現手段を備えているため、擬人化してエンターテインメントとして楽しむことができる。 (6) Since the communication support device is not just a wireless device but is provided with emotion expression means, it can be anthropomorphized and enjoyed as entertainment.

(7)コミュニケーション支援装置に自己紹介データなどを予め保存してあるので、コミュニケーションをスムーズに進行させることができる。 (7) Since the self-introduction data and the like are stored in advance in the communication support device, communication can be smoothly advanced.

(8)電話と異なった形態で音声入力・音声出力することができ、これにより、コミュニケーションをより一層楽しくできる。 (8) Voice input / output can be performed in a form different from that of a telephone, thereby making communication even more enjoyable.

(9)無線の個別通信モードでリンクできる範囲(比較的狭いエリア)で相手を探せるので、コミュニケーション支援装置を介してコミュニケーションを始めた相手と、時間をおかずに実際に会って、人と人とのコミュニケーションを実現することが可能である。 (9) Since you can search for the partner within the range (relatively narrow area) that can be linked in the wireless individual communication mode, you can meet with the person who started communication through the communication support device without spending time, Communication is possible.

本発明のコミュニケーション支援装置の一実施形態を示す概略的正面図である。It is a schematic front view which shows one Embodiment of the communication assistance apparatus of this invention. コミュニケーション支援装置の制御装置を示すブロック図である。It is a block diagram which shows the control apparatus of a communication assistance apparatus. コミュニケーション支援装置の通信接続モードを示す模式図である。It is a schematic diagram which shows the communication connection mode of a communication assistance apparatus. コミュニケーション支援装置の通信接続モードの設定方法を示すフローチャートである。It is a flowchart which shows the setting method of the communication connection mode of a communication assistance apparatus. コミュニケーション支援装置の個別通信モードによるやりとりを示すフローチャートである。It is a flowchart which shows the exchange by the separate communication mode of a communication assistance apparatus. コミュニケーション支援装置の感情表現を示すフローチャートである。It is a flowchart which shows the emotional expression of a communication assistance apparatus. コミュニケーション支援装置の送信内容のレベルを示すフローチャートである。It is a flowchart which shows the level of the transmission content of a communication assistance apparatus. 本発明のコミュニケーション支援装置の他の実施形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of other embodiment of the communication assistance apparatus of this invention.

符号の説明Explanation of symbols

1 コミュニケーション支援装置(ロボット)
10 胴体部
11 タッチパネル付きLCD表示器
12 無線通信用アンテナ
20 頭部
21a,21b CCDカメラ
22a,22b マイクロフォン
23 スピーカ
30(30a,30b) 脚部(前脚)
40(40a,40b) 脚部(後脚)
50 制御装置
51 メインCPU
52 メモリ
53 サブCPU
54 シリアルバス
55 モータ制御ユニット
56 モータ制御CPU
57 駆動モータ
58 角度センサ
60 無線通信回路
70 無線LAN基地局
71 ルータ
72 サーバ
100 インターネット
101,102,103 サーバ
1 Communication support device (robot)
DESCRIPTION OF SYMBOLS 10 Body part 11 LCD display device with a touch panel 12 Antenna 20 for radio | wireless communication Head 21a, 21b CCD camera 22a, 22b Microphone 23 Speaker 30 (30a, 30b) Leg part (front leg)
40 (40a, 40b) Leg (rear leg)
50 control device 51 main CPU
52 Memory 53 Sub CPU
54 Serial bus 55 Motor control unit 56 Motor control CPU
57 drive motor 58 angle sensor 60 wireless communication circuit 70 wireless LAN base station 71 router 72 server 100 Internet 101, 102, 103 server

Claims (4)

複数の装置に搭載され、前記装置がそれぞれ所有するデータをお互いに交換してコミュニケーションをとるためのコミュニケーション支援装置であって、
前記データには、少なくとも前記装置自身または前記装置を使用するユーザを表す自己紹介データを含み、
前記データを送受信する無線通信手段と、
前記データを保存する記憶手段と、
前記データを画面表示または音声出力する出力手段と、を備えたことを特徴とするコミュニケーション支援装置。
A communication support device mounted on a plurality of devices for exchanging data owned by each of the devices and communicating with each other,
The data includes at least self-introduction data representing the device itself or a user who uses the device,
Wireless communication means for transmitting and receiving the data;
Storage means for storing the data;
And an output means for outputting the data on a screen or outputting a voice.
前記無線通信手段は、複数の装置どうしで接続可能な個別通信モードと、インターネットのアクセスポイントに接続可能な基地局接続モードとを切り換え可能で、コミュニケーション相手をサーチするときは前記個別通信モードに設定されることを特徴とする請求項1記載のコミュニケーション支援装置。   The wireless communication means can switch between an individual communication mode connectable between a plurality of devices and a base station connection mode connectable to an Internet access point, and is set to the individual communication mode when searching for a communication partner. The communication support apparatus according to claim 1, wherein: 前記自己紹介データには、コミュニケーション相手の装置又はそのユーザを絞り込む希望データを含むことを特徴とする請求項1記載のコミュニケーション支援装置。   2. The communication support apparatus according to claim 1, wherein the self-introduction data includes desired data for narrowing down a communication partner apparatus or its user. 前記コミュニケーション情報には、コミュニケーション相手の装置から受信したデータが前記希望データに相応している程度に応じて変化する感情表現に相当する内容を含むことを特徴とする請求項3記載のコミュニケーション支援装置。   4. The communication support apparatus according to claim 3, wherein the communication information includes content corresponding to an emotional expression that changes depending on the degree of data received from a communication partner apparatus corresponding to the desired data. .
JP2004020369A 2004-01-28 2004-01-28 Communication support apparatus Pending JP2005211232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004020369A JP2005211232A (en) 2004-01-28 2004-01-28 Communication support apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004020369A JP2005211232A (en) 2004-01-28 2004-01-28 Communication support apparatus

Publications (1)

Publication Number Publication Date
JP2005211232A true JP2005211232A (en) 2005-08-11

Family

ID=34904309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004020369A Pending JP2005211232A (en) 2004-01-28 2004-01-28 Communication support apparatus

Country Status (1)

Country Link
JP (1) JP2005211232A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006205336A (en) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd Communication device
JP2007104613A (en) * 2005-10-07 2007-04-19 Sony Computer Entertainment Inc Electronic communication method, electronic communication system, communication terminal, and server
WO2008152943A1 (en) * 2007-06-13 2008-12-18 Softbank Bb Corp. Mobile communication device, method for controlling mobile communication device, program for the same, and recording medium
JP2013523304A (en) * 2010-04-06 2013-06-17 リブラ リミテッド AC toy
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
JP2015131147A (en) * 2015-03-19 2015-07-23 株式会社デジタルリンク Robot terminal and robot system
JP2017173546A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method, and program
JP2018089730A (en) * 2016-12-01 2018-06-14 株式会社G−グロボット Communication robot

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006205336A (en) * 2005-01-31 2006-08-10 Victor Co Of Japan Ltd Communication device
JP4582449B2 (en) * 2005-01-31 2010-11-17 日本ビクター株式会社 Communication device
JP2007104613A (en) * 2005-10-07 2007-04-19 Sony Computer Entertainment Inc Electronic communication method, electronic communication system, communication terminal, and server
WO2007043232A1 (en) * 2005-10-07 2007-04-19 Sony Computer Entertainment Inc. Electronic communication method, electronic communication system, communication terminal, and server
US8155591B2 (en) 2005-10-07 2012-04-10 Sony Computer Entertainment Inc. Electronic communication method, electronic communication system, communication terminal, and server
WO2008152943A1 (en) * 2007-06-13 2008-12-18 Softbank Bb Corp. Mobile communication device, method for controlling mobile communication device, program for the same, and recording medium
JP2013523304A (en) * 2010-04-06 2013-06-17 リブラ リミテッド AC toy
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
JP2015131147A (en) * 2015-03-19 2015-07-23 株式会社デジタルリンク Robot terminal and robot system
JP2017173546A (en) * 2016-03-23 2017-09-28 カシオ計算機株式会社 Learning support device, robot, learning support system, learning support method, and program
JP2018089730A (en) * 2016-12-01 2018-06-14 株式会社G−グロボット Communication robot

Similar Documents

Publication Publication Date Title
US9098832B1 (en) System and method for recording a photo chat session
JP4559092B2 (en) Mobile communication terminal and program
RU2576576C2 (en) Remote communication method and system
US20060046699A1 (en) Method for changing graphical data like avatars by mobile telecommunication terminals
US20090157223A1 (en) Robot chatting system and method
EP1467564B1 (en) Videophone with screen display setting method
JP4882022B1 (en) Communication system, information processing program, information processing method, information processing apparatus, information processing system
JP5020373B2 (en) Communication system, information processing program, information processing method, information processing apparatus, information processing system
JP2005211232A (en) Communication support apparatus
US20080263164A1 (en) Method of Sending Motion Control Content in a Message, Message Transmitting Device Abnd Message Rendering Device
JP2011023882A (en) Communication terminal
JP2018092528A (en) Chat system, management device, terminal device, and method and program for assisting selection of destination
JP2004193819A (en) Imaging device, terminal device, and imaging system
JP2005064939A (en) Portable telephone terminal having animation function and its control method
JP5407777B2 (en) Mobile terminal device and communication method between mobile terminal devices
Jenkins Pit
JP2005117296A (en) Apparatus and method for assisting search
Kortuem A methodology and software platform for building wearable communities
JP2005249880A (en) Digital picture book system by portable communication terminal
JP5485972B2 (en) Communication system, information processing program, information processing method, information processing apparatus, information processing system
JP2021039677A (en) Information processing method, program, and information processing device
JP2005130307A (en) Home network terminal and room gateway
JP5695604B2 (en) Communication system, information processing program, information processing method, information processing apparatus, information processing system
TWI680660B (en) Real-time communication system and dynamic expression rendering device
JP5291554B2 (en) Communication system, matching database server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309