JP2005246503A - Robot - Google Patents

Robot Download PDF

Info

Publication number
JP2005246503A
JP2005246503A JP2004056930A JP2004056930A JP2005246503A JP 2005246503 A JP2005246503 A JP 2005246503A JP 2004056930 A JP2004056930 A JP 2004056930A JP 2004056930 A JP2004056930 A JP 2004056930A JP 2005246503 A JP2005246503 A JP 2005246503A
Authority
JP
Japan
Prior art keywords
unit
communication terminal
command
robot
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004056930A
Other languages
Japanese (ja)
Other versions
JP4081796B2 (en
Inventor
Hisashi Taniguchi
恒 谷口
Ryosuke Sakai
亮介 坂井
Hiroshi Kaminaga
拓 神永
Taketaka Irukayama
剛堂 入鹿山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZMP KK
NTT Docomo Inc
ZMP Inc
Original Assignee
ZMP KK
NTT Docomo Inc
ZMP Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZMP KK, NTT Docomo Inc, ZMP Inc filed Critical ZMP KK
Priority to JP2004056930A priority Critical patent/JP4081796B2/en
Publication of JP2005246503A publication Critical patent/JP2005246503A/en
Application granted granted Critical
Publication of JP4081796B2 publication Critical patent/JP4081796B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide robot capable of displaying an operation menu in a display region of a portable communication terminal for performing remote operation. <P>SOLUTION: The robot is provided with a imaging part 10 for imaging; a communication control part 4 making talking connection with the portable communication terminal 3; and an image composing part 13 for composing an image by pasting the command menu for the remote operation of the robot to image information imaged by the imaging part 8, during talking connection of the communication control part 4 with the portable communication terminal 3. Image information composed by the image composing part 13 is transmitted to the portable communication terminal 3 through the communication control part 4 and displayed in a first display region 3a of the portable communication terminal 3. The command menu is acquired from a command menu file storing a series of command menus. A DTMF (dual tone multi-frequency) signal generated by pressing a push button 3c of the portable communication terminal 3 is converted into a command by a DTMF signal analyzing part 7b and inputted to a timing control part 5a, and the timing control part 5a instructs a pasted information temporary holding part 12 to change the command menu. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明はロボットに関し、遠隔操作の入力を行う携帯通信端末に対して、遠隔操作のための情報をロボットが撮像した画像情報と同時に送信して、携帯通信端末の表示部に、遠隔操作のための情報を表示させることのできるロボットに関する。   The present invention relates to a robot, and transmits information for remote operation simultaneously with image information captured by the robot to a mobile communication terminal for inputting remote operation, and displays the information for remote operation on the display unit of the mobile communication terminal. The present invention relates to a robot capable of displaying the information of the robot.

移動型のロボットを操作するロボットシステムとして、特許文献1〜3に示すように、種々考えられている。例えば、ロボットの各関節を操作する制御用プログラムをロボットに格納する一方で、制御用プログラムに対して指令を無線LANで送信できるように組まれた遠隔操作用のソフトウエアをCD(Compact Disc)で準備したシステムが考えられている。このシステムでは、パソコンに無線LANカードを装着するとともに、遠隔操作用のソフトウエアを取り込んで起動させて、パソコンの表示画面に表示されたコントロールパネルを利用して操作者が指令を入力している。   As shown in Patent Documents 1 to 3, various types of robot systems for operating a mobile robot are considered. For example, a remote control software that is configured so that a control program for operating each joint of the robot is stored in the robot while a command can be transmitted to the control program via a wireless LAN is a CD (Compact Disc). The system prepared in is considered. In this system, a wireless LAN card is attached to a personal computer, and software for remote operation is loaded and started, and an operator inputs a command using a control panel displayed on the display screen of the personal computer. .

特開2000−79587号公報JP 2000-79587 A 特開2002−354139号公報JP 2002-354139 A 特開2003−136455号公報JP 2003-136455 A

しかしながら、このようなシステムでは、ロボットを操作する操作者に対しては、遠隔操作用のソフトウエアを実行させて、操作に関する情報を与えている。よって、携帯通信端末に遠隔操作用のソフトウエアを搭載するために、メモリ容量が大きくなる。また、携帯通信端末内での制御に大きな負荷がかかるので、携帯通信端末が大きくなったり、携帯通信端末のバッテリーの消耗が激しくなる。よって、携帯通信端末の携帯性を損うことになる。
一方で、携帯通信端末にロボット特有の操作情報を格納しないで、操作者の記憶に頼ると、ロボットに対する指令の数が必然的に減り、様々な指令をロボットに与えることができなくなる。
However, in such a system, an operator who operates the robot is given software-related information by executing software for remote operation. Therefore, since the remote communication software is installed in the mobile communication terminal, the memory capacity increases. In addition, since a large load is applied to the control in the mobile communication terminal, the mobile communication terminal becomes large and the battery of the mobile communication terminal is exhausted. Therefore, the portability of the mobile communication terminal is impaired.
On the other hand, if the operation information peculiar to the robot is not stored in the mobile communication terminal and the memory of the operator is relied on, the number of commands to the robot inevitably decreases, and various commands cannot be given to the robot.

そこで、本発明は、上記課題に鑑み、ロボットを遠隔操作する携帯通信端末の画面に操作情報を表示できるロボットを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a robot that can display operation information on a screen of a mobile communication terminal that remotely controls the robot.

上記課題を解決するために、本発明は、携帯通信端末で遠隔操作できるロボットにおいて、携帯通信端末と通話接続を行う通信制御部と、撮像を行う撮像部と、通信制御部が携帯通信端末と通話接続中に、撮像部で撮像した画像情報にロボット遠隔操作用の指令メニューを貼り付けて画像合成を行う画像合成部と、を備えることを特徴とする。
この構成により、撮像部で撮像した画像情報に対して遠隔操作用の指令メニューを貼り付けて画像合成を行い、携帯通信端末に送信することができるので、携帯通信端末の表示部に遠隔操作用の指令メニューを表示させることができる。よって、ロボットを遠隔操作する者に対して指令メニューを提示することができる。
In order to solve the above-described problem, the present invention provides a robot that can be remotely operated with a mobile communication terminal, a communication control unit that performs a call connection with the mobile communication terminal, an imaging unit that performs imaging, and a communication control unit that An image compositing unit for compositing an image by pasting a command menu for remote control of the robot to image information captured by the image capturing unit during a call connection;
With this configuration, a remote operation command menu can be pasted on the image information captured by the image capturing unit, and the image can be synthesized and transmitted to the mobile communication terminal. The command menu can be displayed. Therefore, a command menu can be presented to a person who remotely operates the robot.

前記構成に加え、好ましくは、前記画像合成部で貼り付けられる一連の指令メニューを格納する指令メニューファイルと、指令メニューファイルから画像合成部で貼り付けられる指令メニューを切換え可能に一時保持する貼付情報一時保持部とを備える。この構成により、予め一連の指令メニューを指令メニューファイルとして格納しておくので、即座に画像合成部において画像情報に対して貼り付けることができる。   In addition to the above configuration, preferably, a command menu file for storing a series of command menus to be pasted by the image composition unit, and paste information for temporarily holding a command menu to be pasted from the command menu file by the image composition unit in a switchable manner A temporary holding unit. With this configuration, since a series of command menus is stored in advance as a command menu file, it can be immediately pasted on the image information in the image composition unit.

前記一連の指令メニューには、好ましくは、撮像部に対する指令を、携帯通信端末のボタンに対応させて表示した撮像部制御メニューと、駆動機構に対する指令を、携帯通信端末のボタンに対応させて表示したロボット動作メニューと、音声出力に関する指令を、携帯通信端末のボタンに対応させて表示した会話コミュニケーションメニューとを含む。この構成により、携帯通信端末のボタンに対応させた各指令メニューを、携帯通信端末の表示部に表示させることができ、操作者の利便性がよくなる。   Preferably, the series of command menus displays an imaging unit control menu in which commands for the imaging unit are displayed corresponding to the buttons of the mobile communication terminal, and commands for the drive mechanism are displayed corresponding to the buttons of the mobile communication terminal. And a conversation communication menu in which commands related to voice output are displayed corresponding to the buttons of the mobile communication terminal. With this configuration, each command menu corresponding to the button of the mobile communication terminal can be displayed on the display unit of the mobile communication terminal, and the convenience of the operator is improved.

本発明は前記構成に加え、好ましくは、不審物検知を行う不審物検知処理部と、不審物検知処理部から不審物検知情報を受けると、通信制御部に対して携帯通信端末と通話接続を行うように指示を行うとともに、この指示により通信制御部と携帯通信端末とが通話接続中になると、撮像部で撮像した画像情報に不審物検知情報を貼り付けるように指示を行う制御部と、を備える。この構成により、ロボットが不審物検知を行い、特定の携帯通信端末に対して通話接続を行い、携帯通信端末を所持する者に不審物を検知した旨を通知することができる。   In addition to the above-described configuration, the present invention preferably includes a suspicious object detection processing unit that performs suspicious object detection, and a suspicious object detection information received from the suspicious object detection processing unit, and makes a communication connection with the mobile communication terminal to the communication control unit A control unit for instructing to paste suspicious object detection information on the image information captured by the imaging unit when the communication control unit and the mobile communication terminal are in a call connection by this instruction, Is provided. With this configuration, the robot can detect a suspicious object, perform a call connection to a specific mobile communication terminal, and notify a person who has the mobile communication terminal that a suspicious object has been detected.

前記不審物検知処理部は、好ましくは、前記撮像部で撮像された画像情報を処理して不審物判定を行い、不審物有りと判定した場合前記制御部に対して不審物検知を通知する画像処理部を備える。この構成により、ロボットの撮像部で得た画像情報に基づいて不審物検知を行うことができ、不審物を検知すると、携帯通信端末にその旨を通知できる。   The suspicious object detection processing unit preferably processes the image information captured by the imaging unit to perform suspicious object determination, and when determining that there is a suspicious object, notifies the control unit of suspicious object detection. A processing unit is provided. With this configuration, the suspicious object can be detected based on the image information obtained by the imaging unit of the robot, and when the suspicious object is detected, the mobile communication terminal can be notified of this.

前記不審物検知処理部は、好ましくは、音入力部で入力変換された音声情報を処理して不審物判定を行い、不審物有りと判定した場合に前記制御部に対して不審物検知を通知する画像処理部を備える。この構成により、ロボットの音入力部で得た音声情報に基づいて不審物検知を行うことができ、不審物を検知すると携帯通信端末にその旨を通知できる。   The suspicious object detection processing unit preferably processes the audio information input and converted by the sound input unit to perform suspicious object determination, and notifies the control unit of suspicious object detection when it is determined that there is a suspicious object. An image processing unit is provided. With this configuration, the suspicious object can be detected based on the voice information obtained by the sound input unit of the robot, and when the suspicious object is detected, the mobile communication terminal can be notified of this.

本発明のロボットは、携帯通信端末と通話接続を行う通信制御部と、撮像を行う撮像部と、通信制御部が携帯通信端末と通話接続中に、撮像部で撮像した画像情報にロボット遠隔操作用の指令メニューを貼り付けて画像合成を行う画像合成部と、を備える。よって、ロボットの撮像部で撮像した画像情報に対して、画像合成部が遠隔操作用の指令メニューを貼り付けて画像合成を行うので、その合成画像情報を携帯通信端末に送信することで、携帯通信端末の表示部に遠隔操作用の指令メニューを表示させることができる。従って、ロボットを遠隔操作する者に対して指令メニューを提示することができ、ロボットの遠隔操作を行い易くなる。   The robot according to the present invention includes a communication control unit that establishes a call connection with a mobile communication terminal, an imaging unit that performs image capture, and a robot remote operation on image information captured by the image capture unit while the communication control unit is connected to the mobile communication terminal via a call. And an image composition unit for pasting a command menu for image composition. Therefore, the image composition unit pastes a command menu for remote operation on the image information captured by the image capturing unit of the robot and performs image composition. By transmitting the composite image information to the mobile communication terminal, A command menu for remote operation can be displayed on the display unit of the communication terminal. Therefore, a command menu can be presented to a person who remotely operates the robot, and the robot can be easily operated remotely.

また、ロボットは、画像合成部で貼り付けられる一連の指令メニューを指令メニューファイルとして格納しており、画像合成部で貼り付けられる指令メニューを指令メニューファイルから一時的に貼付情報一時保持部に保持させる。よって、画像合成部は、貼付情報一時保持部から貼り付ける情報を入手することが容易になり、即座に画像情報に貼り付けることができる。   Also, the robot stores a series of command menus pasted by the image composition unit as a command menu file, and temporarily stores the command menu pasted by the image composition unit from the command menu file in the pasting information temporary storage unit. Let Therefore, the image composition unit can easily obtain information to be pasted from the pasting information temporary holding unit, and can be pasted immediately on the image information.

また、一連の指令メニューには、撮像部に対する指令や駆動機構に対する指令や音声出力に関する指令を、携帯通信端末のボタンに対応させて表示した各指令メニューで構成される。よって、携帯通信端末を操作する者にとって、どのボタンが如何なる指令に対応するのかを容易に把握することができる。   The series of command menus includes command menus that display commands for the imaging unit, commands for the drive mechanism, and commands for audio output in correspondence with buttons of the mobile communication terminal. Therefore, it is possible for a person who operates the mobile communication terminal to easily understand which button corresponds to what command.

また、ロボットには、不審物検知を行う不審物検知処理部と、この不審物検知処理部から不審物検知情報を受けると、通信制御部に対して携帯通信端末と通話接続を行うように指示を行う。また、ロボットと通話接続を開始した携帯通信端末に対して、画像合成部に対して撮像部で撮像した画像情報に不審物検知情報を貼り付けるように指示を行う制御部をも備える。よって、ロボットが不審物検知を行い、特定の携帯通信端末に対し通話接続を行い、携帯通信端末を所持する者に不審物を検知した旨を通知できる。   In addition, the robot instructs the communication control unit to establish a call connection with the mobile communication terminal upon receiving the suspicious object detection processing unit that performs suspicious object detection and the suspicious object detection information from the suspicious object detection processing unit. I do. The mobile communication terminal that has started a call connection with the robot is also provided with a control unit that instructs the image composition unit to paste the suspicious object detection information on the image information captured by the imaging unit. Therefore, the robot detects the suspicious object, makes a call connection to the specific mobile communication terminal, and notifies the person who has the mobile communication terminal that the suspicious object is detected.

また、不審物検知処理部には、撮像部で撮像された画像情報を処理して不審物判定を行い、不審物有りと判定した場合には制御部に対して不審物検知を通知する画像処理部を備えるので、ロボットの撮像部で得た画像情報に基づいて不審物検知を行うことができる。よって、不審物を検知すると、携帯通信端末にその旨を通知できる。   The suspicious object detection processing unit processes image information captured by the image capturing unit to perform suspicious object determination, and when it is determined that there is a suspicious object, image processing for notifying the control unit of suspicious object detection. Therefore, the suspicious object can be detected based on the image information obtained by the imaging unit of the robot. Therefore, when a suspicious object is detected, it can be notified to the mobile communication terminal.

また、不審物検知処理部には、音入力部で入力変換された音声情報を処理して不審物判定を行い、不審物有りと判定した場合には制御部に対して不審物検知を通知する画像処理部を備えるので、ロボットの音入力部で得た音声情報に基づいて不審物検知を行うことができる。よって、不審物を検知すると、携帯通信端末にその旨を通知できる。   The suspicious object detection processing unit processes the audio information input and converted by the sound input unit to perform suspicious object determination, and when it is determined that there is a suspicious object, notifies the control unit of suspicious object detection. Since the image processing unit is provided, the suspicious object can be detected based on the voice information obtained by the sound input unit of the robot. Therefore, when a suspicious object is detected, it can be notified to the mobile communication terminal.

以下、図面を参照して本発明を実施するための最良の形態を説明する。
(実施の形態1)
図1は、本発明の実施の形態1によるロボット遠隔操作システムの機能ブロック構成図である。図1に示すように、ロボット遠隔操作システム1は、遠隔操作されるロボット2と、ロボット2を遠隔操作する者(以下「操作者」とする。)が指令を入力する携帯通信端末3とを備え、ロボット2と携帯通信端末3とは、例えば無線電話回線を含んだ電話回線などで接続可能になっている。
The best mode for carrying out the present invention will be described below with reference to the drawings.
(Embodiment 1)
FIG. 1 is a functional block configuration diagram of a robot remote control system according to Embodiment 1 of the present invention. As shown in FIG. 1, a robot remote operation system 1 includes a robot 2 that is remotely operated, and a mobile communication terminal 3 to which a person who remotely operates the robot 2 (hereinafter referred to as “operator”) inputs a command. The robot 2 and the mobile communication terminal 3 can be connected by a telephone line including a wireless telephone line, for example.

ロボット2は、外部からの動作指令により各駆動機構を制御して所定の動きを行うものである。ロボット2としては、例えば、テーブルなどの上に置かれて上半身の各関節部に設けられた駆動機構を作動して動作するような卓上ロボット、肩、脚などの各関節部に設けられた駆動機構を作動して歩行する動物型ロボットや、肩、脚などの各関節部に設けられた駆動機構を作動して自立歩行する二足歩行ロボットなどの人型ロボットや、駆動機構で車輪やキャタピラで移動できるような移動型ロボットなどがある。以下の説明では、図1に示すように、各関節部21に、駆動機構として、モータと関節状態を測るポテンショメータとで構成したアクチュエータを内蔵したロボットを例にとる。   The robot 2 controls each drive mechanism according to an operation command from the outside and performs a predetermined movement. As the robot 2, for example, a desktop robot that is placed on a table or the like and operates by operating a drive mechanism provided at each joint part of the upper body, a drive provided at each joint part such as a shoulder or a leg. Animal-type robots that walk by actuating mechanisms, humanoid robots such as biped walking robots that actuate drive mechanisms provided at each joint such as shoulders and legs, and wheels and caterpillars by drive mechanisms There are mobile robots that can be moved by In the following description, as shown in FIG. 1, a robot having an actuator constituted by a motor and a potentiometer that measures a joint state as a drive mechanism is taken as an example in each joint portion 21.

携帯通信端末3は、図1に示すように、通信時に相手先の携帯通信端末3から送信された画像情報を表示する第一表示領域3aと、通信時に相手先の携帯通信端末3に送信している画像情報を表示する第二表示領域3bとからなる表示部の他に、「0」〜「9」、「*」および「#」の一連の押しボタン3cや、相手先に送信する画像を撮像する撮像部や、撮像部を機能させるために必要な押しボタンなどが備えられている。押しボタン3cが押されることで、相手先の携帯通信端末3へ通話セッションを確立するために、DTMF(dual tone multi-frequency )信号に変換する信号変換部が内蔵されている。   As shown in FIG. 1, the mobile communication terminal 3 transmits a first display area 3 a that displays image information transmitted from the counterpart mobile communication terminal 3 during communication, and transmits to the counterpart mobile communication terminal 3 during communication. In addition to the display section composed of the second display area 3b for displaying the displayed image information, a series of push buttons 3c of “0” to “9”, “*” and “#”, and an image to be transmitted to the other party An image pickup unit for picking up images, a push button necessary for causing the image pickup unit to function, and the like are provided. When the push button 3c is pressed, a signal conversion unit for converting into a DTMF (dual tone multi-frequency) signal is built in in order to establish a call session to the mobile communication terminal 3 of the other party.

なお、携帯通信端末3は、一方の携帯通信端末3に装備されたCCD(Charge Couple Device)カメラなどの撮像素子で得た画像を処理して他方の携帯通信端末3に送信できる端末である。一例として、携帯電話を挙げることができる。なお、以下全ての実施の形態では、動画を送受信できる携帯テレビ電話端末を想定して説明するものの、静止画像を送受信できる端末であっても構わない。
また、以下の説明においては、携帯通信端末3からロボット2に対して通話状態において、携帯通信端末3の撮像素子で撮像された画像情報と、音声入力された音声情報と、押しボタン3cの押し下げにより変換されたDTMF信号とを一つの情報として圧縮処理して圧縮情報として送信できるとともに、他の同様の携帯通信端末3から送信された圧縮情報を解凍して、画像情報を第一表示領域3aに表示し、音声信号およびDTMF信号を携帯通信端末3に内蔵した音声出力部により出力できるものとする。なお、圧縮処理の方式としては、例えばMPEG(moving picture experts group)方式が挙げられる。
The mobile communication terminal 3 is a terminal that can process an image obtained by an image sensor such as a CCD (Charge Couple Device) camera equipped in one mobile communication terminal 3 and transmit the processed image to the other mobile communication terminal 3. An example is a mobile phone. In all the following embodiments, a mobile videophone terminal that can transmit and receive a moving picture is described. However, a terminal that can transmit and receive a still image may be used.
In the following description, in a state where the mobile communication terminal 3 communicates with the robot 2, the image information captured by the image sensor of the mobile communication terminal 3, the voice information input by voice, and the push button 3 c being pressed down. The DTMF signal converted by the above can be compressed as one information and transmitted as compressed information, and the compressed information transmitted from another similar portable communication terminal 3 is decompressed to display the image information in the first display area 3a. It is assumed that the voice signal and the DTMF signal can be output by the voice output unit built in the mobile communication terminal 3. An example of the compression processing method is an MPEG (moving picture experts group) method.

図2は、ロボット2の機能ブロック構成図である。ロボット2は、携帯通信端末3と通信を行うための通信制御部4を備えており、通信制御部4は、相手先と通話状態となるよう、例えば無線で中継局を介して、相手先との発呼処理、呼出し信号に対する応答処理や切断処理などの通信処理を行う通信処理部4aと、通話状態で通信処理部4aを介して相手先と情報を送受信する送受信部4bとで構成される。通信処理部4aとして通信カードなどを挙げることができ、図1に示したロボット2では、通信カードを背中に内蔵している。なお、送受信部4bは、図示しないが、通話状態で通信処理部4aを介して相手先から送信された圧縮情報を受信する受信部と、通話状態で通信処理部4aを介して相手先に圧縮情報を送信する送信部とで構成される。   FIG. 2 is a functional block configuration diagram of the robot 2. The robot 2 includes a communication control unit 4 for communicating with the mobile communication terminal 3, and the communication control unit 4 communicates with the other party, for example, wirelessly via a relay station so as to be in a call state with the other party. Communication processing unit 4a that performs communication processing such as call processing, response processing to call signal and disconnection processing, and transmission / reception unit 4b that transmits / receives information to / from the other party through communication processing unit 4a in a call state . An example of the communication processing unit 4a is a communication card. In the robot 2 shown in FIG. 1, the communication card is built in the back. In addition, although not shown in figure, the transmission / reception part 4b is compressed by the receiving part which receives the compression information transmitted from the other party via the communication processing part 4a in the call state, and the other party via the communication processing part 4a in the call state. It is comprised with the transmission part which transmits information.

また、ロボット2は、後述するように、ロボット2の動作やセンサーなどを統括制御する制御部5を備えている。通信制御部4と制御部5との間には、受信情報処理部6と指令解析部7とが直列接続されている。
受信情報処理部6は、携帯通信端末3から受信した圧縮情報に対して、携帯通信端末3での圧縮の方式に対応した解凍処理を行い、画像情報と、音声情報およびDTMF信号とに分離する。
Moreover, the robot 2 includes a control unit 5 that performs overall control of the operation and sensors of the robot 2 as will be described later. A reception information processing unit 6 and a command analysis unit 7 are connected in series between the communication control unit 4 and the control unit 5.
The reception information processing unit 6 performs decompression processing corresponding to the compression method in the mobile communication terminal 3 on the compressed information received from the mobile communication terminal 3 and separates it into image information, audio information, and DTMF signal. .

指令解析部7は、携帯通信端末3から音声信号として送信された指令情報、すなわち、携帯通信端末3で圧縮処理されて圧縮情報として送信された場合には、圧縮情報を解凍した結果としての音声信号を、指令情報として解析する。
指令解析部7は、音声信号を認識して解析を行う音声認識解析部7aと、DTFM信号を解析するDTMF信号解析部7bとを並列接続して構成される。そして、音声認識解析部7aは、音声認識解析部7aでの認識結果と各認識結果に対応する制御部5へのコマンドとを対応させた第一コマンド対応表を格納している。また、DTMF信号解析部7bは、各DTMF信号とこのDTMF信号に対する制御部5へのコマンドとを対応させた第二コマンド対応表を格納している。なお、第一コマンド対応表および第二コマンド対応表は指令解析部7に格納されて、それぞれ音声認識解析部7a,DTMF信号解析部7bが参照できるようになっていてもよい。これにより、音声入力による遠隔操作と、携帯通信端末3の押しボタン3cの押圧による遠隔操作の何れにも対応できる。
The command analysis unit 7 sends the command information transmitted from the mobile communication terminal 3 as an audio signal, that is, the voice as a result of decompressing the compressed information when the mobile communication terminal 3 performs compression processing and transmits the compressed information. The signal is analyzed as command information.
The command analysis unit 7 is configured by connecting a speech recognition analysis unit 7a that recognizes and analyzes a speech signal and a DTMF signal analysis unit 7b that analyzes a DTFM signal in parallel. The voice recognition analysis unit 7a stores a first command correspondence table in which the recognition results in the voice recognition analysis unit 7a are associated with the commands to the control unit 5 corresponding to the respective recognition results. The DTMF signal analyzing unit 7b stores a second command correspondence table in which each DTMF signal is associated with a command to the control unit 5 for the DTMF signal. The first command correspondence table and the second command correspondence table may be stored in the command analysis unit 7 so that the speech recognition analysis unit 7a and the DTMF signal analysis unit 7b can refer to them. Thereby, both remote operation by voice input and remote operation by pressing the push button 3c of the mobile communication terminal 3 can be supported.

図3は第一コマンド対応表T1の一例である。音声認識解析部7aでは、入力された音声信号を音声認識して、第一コマンド対応表T1に認識結果を照らし合わせ、認識結果に符合するコマンドを出力する。第一コマンド対応表T1は、図3に示すように、複数の認識結果に一つのコマンドが対応するようになっており、例えば、「ぜんしん」、「まえにでて」、「まっすぐ」という認識結果は、「WalkForward」に対応しており、操作者に対して操作の利便性を図っている。
一方、第二コマンド対応表は、第一コマンド対応表T1における認識結果がDTMF信号に相当する表である。
FIG. 3 is an example of the first command correspondence table T1. The speech recognition analysis unit 7a recognizes the input speech signal, compares the recognition result with the first command correspondence table T1, and outputs a command that matches the recognition result. In the first command correspondence table T1, as shown in FIG. 3, one command corresponds to a plurality of recognition results. For example, “zenshin”, “previous”, “straight” The recognition result corresponds to “Walk Forward”, which is convenient for the operator.
On the other hand, the second command correspondence table is a table in which the recognition result in the first command correspondence table T1 corresponds to the DTMF signal.

制御部5は、指令解析部7からのコマンドの入力を受けるタイミング制御部5aと、発信番号確認処理部5bとを備える。なお、後述するような、動作制御部5c,発話文章生成部5d,撮像制御部5eおよび照明制御部5fとともに一つのMPU(マイクロプロセッサーユニット)に実装されて実現されるものの、複数のMPUに実装されて実現してもよい。
発信番号確認処理部5bには、予めロボット2と通話接続を許可される携帯通信端末3の電話番号一覧が格納されている。
通信処理部4aは、操作者の携帯通信端末3からの通話接続要求を受けたことを契機として、発信番号確認処理部5bに対して、携帯通信端末3から発信者番号通知で通知された携帯通信端末3の携帯番号とともに、通話接続を許可するか否かの判断要求を行う。
この判断要求を受けた発信番号確認処理部5bは、電話番号一覧に携帯通信端末3の携帯番号があるか否かの判断を行い、通信処理部4aにその判断結果を返答する。
このとき、判断結果が番号ありの場合に限り、タイミング制御部5aに対して、携帯通信端末3と通話接続中である旨の通知を行う。また、通信処理部4aで相手先の携帯通信端末3による通話切断処理がなされると、発信番号確認処理部5bに対して通話切断が通知される。通話切断の通知を受けた発信番号確認処理部5bは、タイミング制御部5aに対して通話切断である旨の通知を行う。
The control unit 5 includes a timing control unit 5a that receives an input of a command from the command analysis unit 7, and a transmission number confirmation processing unit 5b. Although implemented in one MPU (microprocessor unit) together with an operation control unit 5c, an utterance sentence generation unit 5d, an imaging control unit 5e, and an illumination control unit 5f as described later, it is implemented in a plurality of MPUs. May be realized.
The calling number confirmation processing unit 5b stores in advance a list of telephone numbers of the mobile communication terminal 3 that is permitted to make a call connection with the robot 2.
The communication processing unit 4a receives the call connection request from the mobile communication terminal 3 of the operator as a trigger, and the mobile number notified by the caller number notification from the mobile communication terminal 3 to the call number confirmation processing unit 5b. A request for determination as to whether or not to permit call connection is made together with the mobile number of the communication terminal 3.
Upon receiving this determination request, the calling number confirmation processing unit 5b determines whether or not the mobile number of the mobile communication terminal 3 is in the telephone number list, and returns the determination result to the communication processing unit 4a.
At this time, only when the determination result is that there is a number, the timing control unit 5a is notified that the telephone communication with the mobile communication terminal 3 is in progress. Further, when the communication processing unit 4a performs a call disconnection process by the mobile communication terminal 3 of the other party, the call disconnection confirmation processing unit 5b is notified of the call disconnection. The call number confirmation processing unit 5b that has received the call disconnect notification notifies the timing control unit 5a that the call has been disconnected.

タイミング制御部5aは、携帯通信端末3と通話接続中である場合に、指令解析部7から入力されたコマンドに対応してタイミングをとって、すなわち、予め定められた制御に関する優先順位に基づいて被制御部をコントロールする。
図2に示したロボット2においては、被制御部として、ロボット2の各関節部21に設けられた駆動機構としてのアクチュエータ8や、ロボット2の口元に配備されたスピーカなどの音声出力部9bから発する音声を合成する音声合成部9a、一方の目に装着されたCCDカメラなどの撮像部10や、他方の目に装着されたLEDなどの照明部11などがある。
The timing control unit 5a takes a timing corresponding to the command input from the command analysis unit 7 when the mobile communication terminal 3 is in a call connection, that is, based on a predetermined priority order related to control. Control the controlled part.
In the robot 2 shown in FIG. 2, as a controlled unit, from an actuator 8 as a drive mechanism provided in each joint unit 21 of the robot 2, or from an audio output unit 9 b such as a speaker arranged at the mouth of the robot 2. There are a voice synthesizer 9a for synthesizing a voice to be emitted, an imaging unit 10 such as a CCD camera attached to one eye, and an illumination unit 11 such as an LED attached to the other eye.

制御部5は、このような被制御部をそれぞれ制御するために、それぞれ、歩行パターン生成部5c1と各モータ制御部5c2とからなる動作制御部5cと、音声合成部9aに生成した発話文章を出力する発話文章生成部5dと、撮像部10を制御する撮像制御部5eと、照明部11を制御する照明制御部5fとを備える。なお、これらの被制御部を制御する動作制御部5c、発話文章生成部5d、撮像制御部5eおよび照明制御部5fは、制御部5内に設けたが、制御部5とは別に設けてもよい。   In order to control each of these controlled parts, the control part 5 includes an action control part 5c composed of a walking pattern generation part 5c1 and each motor control part 5c2, and a speech sentence generated in the speech synthesis part 9a. An utterance sentence generation unit 5d that outputs, an imaging control unit 5e that controls the imaging unit 10, and an illumination control unit 5f that controls the illumination unit 11 are provided. The operation control unit 5c, the utterance sentence generation unit 5d, the imaging control unit 5e, and the illumination control unit 5f that control these controlled units are provided in the control unit 5, but may be provided separately from the control unit 5. Good.

制御部5のタイミング制御部5aは、指令入力部7から入力されたコマンドを判断し、入力されたコマンドが、動作制御部5c,発話文章生成部5d,撮像制御部5eおよび照明制御部5fの何れに対する指令かを判断する。そして、タイミング制御部5aに格納された優先順位テーブルに従い、現状のロボット2の動作に配慮しつつ、入力されたコマンドに対応する被制御部、すなわち、動作制御部5c,発話文章生成部5d,撮像制御部5eおよび照明制御部5fの何れかに、コマンドに対応した指示を送信する。ここでは、説明上、指令解析部7から入力されたコマンドが、各被制御部に対するコマンドを兼ねるものとする。   The timing control unit 5a of the control unit 5 determines the command input from the command input unit 7, and the input command is used by the operation control unit 5c, the utterance sentence generation unit 5d, the imaging control unit 5e, and the illumination control unit 5f. Determine which command is to be directed. Then, according to the priority order table stored in the timing control unit 5a, the controlled unit corresponding to the input command, that is, the operation control unit 5c, the utterance text generation unit 5d, An instruction corresponding to the command is transmitted to either the imaging control unit 5e or the illumination control unit 5f. Here, for the sake of explanation, it is assumed that the command input from the command analysis unit 7 also serves as a command for each controlled unit.

ここで、タイミング制御部5aは、入力されたコマンドが動作制御部5cに関すると判断すると、入力されたコマンドは歩行者パターン生成部5c1に入力される。
歩行者パターン生成部5c1は、入力されたコマンドに応じて、予め格納された歩行パターンファイル5c3を参照して、対応する歩行パターンを生成する。なお、歩行パターンファイル5c3は、ロボット2の動作、例えば、一般的な動作(前進、左向き、右向き等)ではどの関節部21に配設したアクチュエータ8を作動させるのかを一般化したファイルである。また、歩行パターンは、各アクチュエータ8に内蔵されたポテンショメータから現状の関節状態の結果を元に、各関節に対応して設けられたモータ制御部5c2に対してモータの回転速度および作動時間などを定量的に算出したものである。
歩行者パターン生成部5c1で生成された歩行パターンが、各モータ制御部5c2に入力され、各モータ制御部5c2は対応するアクチュエータ8に内蔵されたモータを駆動して、タイミング制御部5aに入力されたコマンドに対応した動作をロボット2が行う。
When the timing control unit 5a determines that the input command relates to the motion control unit 5c, the input command is input to the pedestrian pattern generation unit 5c1.
The pedestrian pattern generation unit 5c1 generates a corresponding walking pattern with reference to the walking pattern file 5c3 stored in advance according to the input command. The walking pattern file 5c3 is a file that generalizes which joint portion 21 the actuator 8 is to be operated in the operation of the robot 2, for example, a general operation (forward, leftward, rightward, etc.). In addition, the walking pattern is based on the result of the current joint state from the potentiometer built in each actuator 8, and the rotational speed and operating time of the motor with respect to the motor control unit 5c2 provided corresponding to each joint. It is calculated quantitatively.
The walking pattern generated by the pedestrian pattern generation unit 5c1 is input to each motor control unit 5c2, and each motor control unit 5c2 drives a motor built in the corresponding actuator 8 and is input to the timing control unit 5a. The robot 2 performs an operation corresponding to the command.

また、タイミング制御部5aは、入力されたコマンドが発話文章生成部5dに関すると判断すると、入力されたコマンドを、発話文章生成部5dに入力する。この入力を受けた発話文章生成部5dは、入力されたコマンドに対して、予め格納された言語ファイルから発話文章を生成して、音声合成部9aに出力する。生成された発話文章の入力を受けた音声合成部9aは入力された発話文章を音声出力部9bで音波として出力するように変換して、音声出力部9bから対応した音声として出力される。   If the timing control unit 5a determines that the input command relates to the utterance sentence generation unit 5d, the timing control unit 5a inputs the input command to the utterance sentence generation unit 5d. In response to the input, the utterance sentence generation unit 5d generates an utterance sentence from a language file stored in advance in response to the input command, and outputs the utterance sentence to the speech synthesis unit 9a. The voice synthesizer 9a that has received the input of the generated utterance text converts the input utterance text to be output as a sound wave by the voice output section 9b, and is output as a corresponding voice from the voice output section 9b.

また、タイミング制御部5aは、入力されたコマンドが撮像制御部5eに関すると判断すると、入力されたコマンドを撮像制御部5eに入力する。この入力を受けた撮像制御部5eは、入力されたコマンドに対応するように、撮像部10を制御する。これにより、ズーム切換えがなされたり、撮像部10が右旋回したり、上旋回したりする。   When the timing control unit 5a determines that the input command relates to the imaging control unit 5e, the timing control unit 5a inputs the input command to the imaging control unit 5e. Upon receiving this input, the imaging control unit 5e controls the imaging unit 10 so as to correspond to the input command. Thereby, zoom switching is performed, and the imaging unit 10 turns right or turns up.

また、タイミング制御部5aは、入力されたコマンドが照明制御部5fに関すると判断すると、入力されたコマンドを照明制御部5fに入力する。この入力を受けた照明制御部5fは、入力されたコマンドに対応するように、照明部11を制御する。これにより、照明のON,OFFがなされる。   When the timing control unit 5a determines that the input command relates to the illumination control unit 5f, the timing control unit 5a inputs the input command to the illumination control unit 5f. Receiving this input, the illumination control unit 5f controls the illumination unit 11 so as to correspond to the input command. Thereby, illumination is turned on and off.

また、タイミング制御部5aは、入力されたコマンドが貼付情報一時保持部12に関すると判断すると、入力されたコマンドを貼付情報一時保持部10に入力する。
ここで、貼付情報一時保持部12は、撮像合成部13で撮像部10により撮像された画像情報に貼り付ける貼付情報を一時保持する。貼付情報一時保持部12は、予め指令メニューファイル14に格納された一連の指令メニューを、タイミング制御部5aに入力されたコマンドで切り換えて一時的に保持する。つまり、貼付情報一時保持部12は、指令メニューファイル14から撮像部10で撮像した画像情報に対して貼り付けるべき貼付情報を一時的に保持する。よって、貼付情報一時保持部12が、制御部5のタイミング制御部5aから貼付情報を切り換えるように指示を受けると、指令メニューファイル14から次に貼り付ける貼付情報を取得して保持する。
When the timing control unit 5a determines that the input command relates to the pasting information temporary holding unit 12, the timing control unit 5a inputs the input command to the pasting information temporary holding unit 10.
Here, the pasting information temporary holding unit 12 temporarily holds pasting information to be pasted on the image information picked up by the image pickup unit 10 in the imaging composition unit 13. The pasting information temporary holding unit 12 switches and temporarily holds a series of command menus stored in advance in the command menu file 14 by a command input to the timing control unit 5a. That is, the pasting information temporary holding unit 12 temporarily holds pasting information to be pasted on the image information captured by the imaging unit 10 from the command menu file 14. Therefore, when the pasting information temporary holding unit 12 receives an instruction to switch the pasting information from the timing control unit 5a of the control unit 5, the pasting information to be pasted from the command menu file 14 is acquired and held.

図4は指令メニューファイル14の一例を示した画像情報である。図4に示した一連の指令メニューは、各押しボタン3cとこの押しボタン3cに対応したコマンドとを一覧表示したものである。
図4に示したように、指令メニューとしては、例えば、撮像制御部5eに関する撮像部制御メニューM1や、ロボット2の動作に関するロボット動作メニューM2や、ロボット2に会話をさせる会話コミュニケーションメニューM3などがある。ここで、撮像部制御メニューM1は、撮像部10に対する撮像向きの変更およびズームの切換指令を、携帯通信端末3の押しボタン3cに対応させて表示した指令メニューである。ロボット動作メニューM2は、ロボット動作の指令を、携帯通信端末3の押しボタン3cに対応させて表示した指令メニューである。会話コミュニケーションメニューM3は、音声出力に関する指令を、携帯通信端末3の押しボタン3cに対応させた指令メニューである。
FIG. 4 shows image information showing an example of the command menu file 14. The series of command menus shown in FIG. 4 displays a list of the push buttons 3c and commands corresponding to the push buttons 3c.
As shown in FIG. 4, examples of the command menu include an imaging unit control menu M1 related to the imaging control unit 5e, a robot operation menu M2 related to the operation of the robot 2, and a conversation communication menu M3 that allows the robot 2 to talk. is there. Here, the imaging unit control menu M1 is a command menu that displays an imaging direction change and zoom switching command for the imaging unit 10 in association with the push button 3c of the mobile communication terminal 3. The robot operation menu M <b> 2 is a command menu that displays a robot operation command corresponding to the push button 3 c of the mobile communication terminal 3. The conversation communication menu M3 is a command menu in which a command related to voice output is associated with the push button 3c of the mobile communication terminal 3.

なお、貼付情報一時保持部15は、タイミング制御部5aからの指示により、指令メニューファイル12に格納されている各指令メニューを切り換えることができる。図4には、携帯通信端末3の「*」や「0」の押しボタン3cで、指令メニューがどのように切り換えられるかも示している。例えば、初期メニューM0から押しボタン3cの「*」の入力があった場合には、タイミング制御部5aからの指示で、ロボット動作メニューM2に切り換えられる。   The pasting information temporary holding unit 15 can switch each command menu stored in the command menu file 12 according to an instruction from the timing control unit 5a. FIG. 4 also shows how the command menu can be switched by the “*” or “0” push button 3 c of the mobile communication terminal 3. For example, when there is an input of “*” of the push button 3c from the initial menu M0, the robot operation menu M2 is switched by an instruction from the timing control unit 5a.

そして、画像合成部13は、撮像部10で撮像した画像情報に、貼付情報一時保持部12に一時的に保持されている貼付情報を貼り付けて画像合成を行う。この貼付情報一時保持部12と画像合成部13とで、撮像部10で撮像された画像情報に対して貼付情報を貼り付けて画像合成を行い、さらに、送信情報処理部16において、マイクロフォンなどの音入力部15から入力された音声情報と併せて一つの情報として所定の形式で圧縮処理して、通信制御部4を介して携帯通信端末3に送信する。   Then, the image composition unit 13 performs image composition by pasting the paste information temporarily held in the paste information temporary holding unit 12 to the image information captured by the imaging unit 10. The pasting information temporary holding unit 12 and the image synthesizing unit 13 perform image synthesis by pasting pasting information on the image information captured by the imaging unit 10, and the transmission information processing unit 16 further uses a microphone or the like. Along with the voice information input from the sound input unit 15, the information is compressed as a single information in a predetermined format and transmitted to the mobile communication terminal 3 via the communication control unit 4.

以上により、携帯通信端末3で予め定められた押しボタン3c、例えば、図4に示した一連の指令メニューでは押しボタン3cの「*」や「0」を押圧することで、対応するDTMF信号が生成されて画像情報や音声情報と一緒に併せて圧縮処理されて、ロボット2に通話情報として送信される。
そして、通信制御部4を介して通話情報を受けた受信情報処理部6は、通話情報を解凍処理する。解凍の結果生じたDTMF信号は、指令解析部7のDTMF信号解析部7bで対応するコマンドに変換されて、タイミング制御部5aに入力される。
この入力を受けたタイミング制御部5aは入力されたコマンドが、貼付情報を切り換えるコマンドであると判断して、貼付情報一時保持部12に対して、コマンドに応じて一時保持する貼付情報を指令メニューファイル12に基づいて切り換えるように指示する。
これにより、操作者の押しボタン3cの押圧に応じて一連の指令メニューを切り換え、撮像部10で撮像された画像情報に、画像合成部13で貼り付けて画像合成を行い、マイクロフォンなどの音入力部15からの音声情報とともに圧縮処理して携帯通信端末3に通信制御部4を介して送信する。
よって、携帯通信端末3では、受信した圧縮情報を解凍して、指令メニューを貼り付けた画像情報を第一表示領域3aに表示して、操作者に対して、一連の指令メニューを提示できる。
As described above, by pressing the “*” or “0” of the push button 3c predetermined in the mobile communication terminal 3, for example, the push button 3c in the series of command menus shown in FIG. It is generated and compressed together with image information and audio information, and is sent to the robot 2 as call information.
Then, the reception information processing unit 6 that has received the call information via the communication control unit 4 decompresses the call information. The DTMF signal generated as a result of the decompression is converted into a corresponding command by the DTMF signal analysis unit 7b of the command analysis unit 7 and input to the timing control unit 5a.
Receiving this input, the timing control unit 5a determines that the input command is a command for switching the paste information, and instructs the paste information temporary holding unit 12 to paste the paste information temporarily held according to the command. Instruct to switch based on file 12.
As a result, a series of command menus are switched in response to the press of the push button 3c by the operator, and the image information is picked up by the image combining unit 13 on the image information picked up by the image pickup unit 10, and the sound input such as a microphone is input. The data is compressed together with the audio information from the unit 15 and transmitted to the mobile communication terminal 3 via the communication control unit 4.
Therefore, the mobile communication terminal 3 can decompress the received compressed information, display the image information with the instruction menu pasted on the first display area 3a, and present a series of instruction menus to the operator.

(実施の形態2)
次に、実施の形態1を改良して、不審物を発見したときに所定の携帯通信端末3に対して自動発信を行うロボット遠隔操作システムを説明する。
図5は、本発明の実施の形態2におけるロボット20の機能ブロック構成図である。ロボットを遠隔操作する携帯通信端末3は、実施の形態1と同様であり、また、ロボット2の機能ブロックと同一または同等のものについては同一の符号を付してある。
(Embodiment 2)
Next, a robot remote control system that improves the first embodiment and performs automatic transmission to a predetermined mobile communication terminal 3 when a suspicious object is found will be described.
FIG. 5 is a functional block configuration diagram of the robot 20 according to the second embodiment of the present invention. The mobile communication terminal 3 for remotely operating the robot is the same as that of the first embodiment, and the same or equivalent functional blocks of the robot 2 are denoted by the same reference numerals.

ロボット20は、不審物判定処理を行う不審物検知処理部17を備えている。不審物検知処理部17には、マイクロフォンなどの音入力部15から音声情報が入力されて、不審音を検出する音声処理部17aが備えられている。
音声処理部17aは、所定の判定ルーチンを繰り返し行い、不審音を検出すると制御部5のタイミング制御部5aに対して不審物検知情報を通知する。ここで、所定の判定ルーチンとは、例えば一定以上の強度の音や特定の周波数の音など特定の音が音入力部15からの音声情報に含まれるか否かを、任意の時間間隔で判定を行い、特定の音が音入力部15から入力された音声情報が含まれる場合には、不審音ありと判定する。
また、不審物検知処理部17には、撮像部10から画像情報が入力されて、不審物を判定する画像処理部17bが備えられている。画像処理部17bは、所定の判定ルーチンを繰り返し行い、不審物を検出すると制御部5のタイミング制御部5aに対して不審物検知情報を通知する。ここで、所定の判定ルーチンとは、画像情報に動いている物体があるか否か、すなわち、撮像された画像中に動体があるか否かを任意の時間間隔で判定を行い、動体があると判定した場合には、不審物ありと判定する。
また、不審物検知処理部17には、一以上のセンサー17cが備えられ、センサー17cが異常を検出すると、制御部5のタイミング制御部5aに対して不審物検知情報を通知する。ここで、センサー17cとしては、赤外線人検出センサー、温度センサー、ガスセンサーなどがあり、異常の内容としては、それぞれ、人の検知、一定以上の温度上昇、ガス漏れなどを挙げることができる。なお、図示しないが、ロボット20に赤外線通信部を設け、赤外線通信部が、扉に取り付けられた扉開閉チェックセンサーや窓に取り付けられた窓開閉チェックセンサーから、所定の異常を検出した旨の通知を受けると、この通知をタイミング制御部5aに入力するようにしてもよい。
The robot 20 includes a suspicious object detection processing unit 17 that performs a suspicious object determination process. The suspicious object detection processing unit 17 includes a sound processing unit 17a that receives sound information from the sound input unit 15 such as a microphone and detects a suspicious sound.
When the sound processing unit 17a repeatedly performs a predetermined determination routine and detects a suspicious sound, the sound processing unit 17a notifies the timing control unit 5a of the control unit 5 of suspicious object detection information. Here, the predetermined determination routine determines, for example, whether or not a specific sound such as a sound with a certain intensity or a specific frequency is included in the sound information from the sound input unit 15 at an arbitrary time interval. If a specific sound includes audio information input from the sound input unit 15, it is determined that there is a suspicious sound.
The suspicious object detection processing unit 17 is provided with an image processing unit 17b that receives image information from the imaging unit 10 and determines a suspicious object. When the image processing unit 17b repeatedly performs a predetermined determination routine and detects a suspicious object, the image processing unit 17b notifies the timing control unit 5a of the control unit 5 of suspicious object detection information. Here, the predetermined determination routine determines whether or not there is a moving object in the image information, that is, whether or not there is a moving object in the captured image, and there is a moving object. If it is determined that there is a suspicious object.
The suspicious object detection processing unit 17 includes one or more sensors 17c. When the sensor 17c detects an abnormality, the suspicious object detection processing unit 17 notifies the timing control unit 5a of the control unit 5 of suspicious object detection information. Here, as the sensor 17c, there are an infrared human detection sensor, a temperature sensor, a gas sensor, and the like, and examples of abnormalities include human detection, temperature rise above a certain level, gas leakage, and the like. Although not shown, the robot 20 is provided with an infrared communication unit, and the infrared communication unit notifies that a predetermined abnormality is detected from a door open / close check sensor attached to the door or a window open / close check sensor attached to the window. The notification may be input to the timing control unit 5a.

また、制御部5は電話発信処理部5gを備える。不審物検知処理部17から不審物検知情報の通知を受けたタイミング制御部5aは、電話発信処理部5gに対して指示を行う。この指示を契機として、電話発信処理部5gは、通信制御部4の通信処理部4aに対して特定の携帯通信端末3と自動で通話接続を行うように指示する。電話発信処理部5gまたは通信処理部4aには、予め特定の携帯通信端末3の携帯番号が格納されている。   In addition, the control unit 5 includes a telephone call processing unit 5g. The timing control unit 5a that has received the notification of the suspicious object detection information from the suspicious object detection processing unit 17 instructs the telephone call processing unit 5g. In response to this instruction, the telephone call processing unit 5g instructs the communication processing unit 4a of the communication control unit 4 to automatically establish a call connection with the specific mobile communication terminal 3. In the telephone call processing unit 5g or the communication processing unit 4a, a mobile number of a specific mobile communication terminal 3 is stored in advance.

そして、ロボット20が特定の携帯通信端末3と通話接続されると、タイミング制御部5aから貼付情報一時保持部10に対して、指令メニューファイル12から透明無地の初期メニューM0を取得して、初期メニューM0の所定の位置に、例えば「不審物有」というテキスト情報などの不審物検知情報を貼り付けて保持するように、指令する。ここで、不審物検知情報は、例えば、貼付情報一時保持部12に出力できるように、予め不審物検知情報ファイル18に格納されている。なお、初期メニューM0の所定の位置に貼り付けられるテキスト情報は、不審物検知処理部15からタイミング制御部5aに対する不審物検知の通知に添付されたものを、転送するようにしてもよい。   When the robot 20 is connected to a specific mobile communication terminal 3 by calling, the timing control unit 5a acquires the transparent plain initial menu M0 from the command menu file 12 to the pasting information temporary holding unit 10, It is instructed to paste and hold suspicious object detection information such as text information “existence of suspicious object” at a predetermined position of the menu M0. Here, the suspicious object detection information is stored in advance in the suspicious object detection information file 18 so that the suspicious object detection information can be output to the pasting information temporary holding unit 12, for example. The text information pasted at a predetermined position of the initial menu M0 may be transferred from the suspicious object detection processing unit 15 attached to the suspicious object detection notification to the timing control unit 5a.

これにより、画像合成部13は、貼付情報一時保持部12が保持している貼付情報、例えば「不審物有」のテキスト情報を貼り付けた初期メニューM0の画像情報を、撮像部10からの画像情報に貼り付けて画像を合成する。そして、音入力部15からの音声情報と併せて所定の方式に従って圧縮処理して、通信制御部4を介して、特定の携帯通信端末3に送信する。よって、携帯通信端末3の第一表示領域3aに、例えば「不審物有」が表示される。このようにして、携帯通信端末3を所持する者は、不審物検知処理部15において不審物検知がなされると、ロボット20から自動発信を受けて、不審物情報を得ることができる。   As a result, the image composition unit 13 uses the image information from the imaging unit 10 to display the pasting information held by the pasting information temporary holding unit 12, for example, the image information of the initial menu M0 pasted with the text information of “suspicious”. Paste it into information and compose an image. And it compresses according to a predetermined | prescribed system with the audio | voice information from the sound input part 15, and transmits to the specific portable communication terminal 3 via the communication control part 4. FIG. Therefore, for example, “suspicious” is displayed in the first display area 3 a of the mobile communication terminal 3. In this way, a person possessing the mobile communication terminal 3 can receive suspicious object information by receiving automatic transmission from the robot 20 when suspicious object detection is performed in the suspicious object detection processing unit 15.

(ロボット遠隔操作方法)
以下、実施の形態2を例にとって、図5を参照しながら、ロボット20の遠隔操作方法を説明する。
なお、ロボット20は、例えば自宅に配置されており、図5に示していない電源がONとなっており、制御部5、撮像部10、音入力部15および不審物検知処理部17は作動状態にあるものとする。
(Robot remote control method)
Hereinafter, the remote operation method of the robot 20 will be described with reference to FIG.
Note that the robot 20 is disposed at home, for example, and the power supply not shown in FIG. 5 is ON, and the control unit 5, the imaging unit 10, the sound input unit 15, and the suspicious object detection processing unit 17 are in an operating state. It shall be in

[通話状態の確立]
ロボット20を携帯通信端末3で遠隔操作するには、先ず、携帯通信端末3とロボット20とが通話状態になるようにする。
すなわち、携帯通信端末3からロボット20の通信制御部4に対して、具体的には通信制御部4の通信処理部4aとしての通信カードに対して電話をかける。すると、通信処理部4aから制御部5の発信番号確認処理部5bに対して、発信元である携帯通信端末3の発信者番号の通知がなされる。この通知を受けた発信番号確認処理部5bにおいて、通話接続が許可されているか否かの確認がなされ、通信処理部4aに対して、通話許可であれば通話接続許可を、通話不許可であれば通話接続不許可の返答がなされる。通信処理部4aは、通話接続許可の返答を受けると通話接続処理を行い、通話接続不許可の返答を受けると切断処理を行う。以下では通話接続処理がなされたことを前提とする。
[Establish call status]
In order to remotely control the robot 20 with the mobile communication terminal 3, first, the mobile communication terminal 3 and the robot 20 are brought into a call state.
That is, the mobile communication terminal 3 calls the communication control unit 4 of the robot 20, specifically, the communication card as the communication processing unit 4 a of the communication control unit 4. Then, the caller number of the mobile communication terminal 3 that is the caller is notified from the communication processor 4a to the caller ID confirmation processor 5b of the controller 5. Upon receiving this notification, the calling number confirmation processing unit 5b confirms whether or not the call connection is permitted. If the call is permitted, the communication processing unit 4a is permitted to connect the call. In this case, a reply indicating that the call connection is not permitted is made. The communication processing unit 4a performs a call connection process when receiving a call connection permission response, and performs a disconnection process when receiving a call connection disapproval response. In the following, it is assumed that call connection processing has been performed.

[通話開始初期状態]
次に、携帯通信端末3とロボット2とが通話接続状態になると、発信番号確認処理部5bからタイミング制御部5aに対して通話中である旨の通知がなされる。すると、タイミング制御部5aは、貼付情報一時保持部12に対して、指令メニューファイル14から透明無地の初期メニューM0(図4参照)を選択して一時保持するように指示する。この指示を受けた貼付情報一時保持部12は、初期メニューM0を指令メニューファイル14から取得して保持し、画像合成部13に対して出力する。画像合成部13は、撮像部10で撮像された画像情報に対して、貼付情報一部保持部12から出力された初期メニューM0を貼り付けて画像を合成し、合成画像情報として送信情報処理部16に出力する。なお、初期メニューM0は透明無地であるので、実質的には撮像部10で撮像された画像情報が送信情報処理部16に出力される。そして、送信情報処理部16において、画像合成部13からの合成画像情報と音入力部15から入力された音声情報とを併せて圧縮処理され、通信制御部4を介して相手先の携帯通信端末3に送信される。これで、携帯通信端末3の第一表示領域3aに、合成された画像情報が表示され、また、携帯通信端末3の音声出力部から音声情報を音波として出力される。
[Initial state of calling]
Next, when the mobile communication terminal 3 and the robot 2 are in a call connection state, the calling number confirmation processing unit 5b notifies the timing control unit 5a that the call is in progress. Then, the timing control unit 5a instructs the pasting information temporary holding unit 12 to select and temporarily hold the transparent plain initial menu M0 (see FIG. 4) from the command menu file 14. Upon receiving this instruction, the pasting information temporary holding unit 12 acquires and holds the initial menu M0 from the command menu file 14 and outputs it to the image composition unit 13. The image composition unit 13 composes an image by pasting the initial menu M0 output from the pasting information partial holding unit 12 to the image information captured by the image capturing unit 10, and transmits the combined image information as a transmission information processing unit. 16 is output. Since the initial menu M0 is transparent and plain, image information captured by the imaging unit 10 is substantially output to the transmission information processing unit 16. Then, in the transmission information processing unit 16, the combined image information from the image combining unit 13 and the audio information input from the sound input unit 15 are compressed together, and the other party's mobile communication terminal is connected via the communication control unit 4. 3 is transmitted. Thus, the synthesized image information is displayed in the first display area 3a of the mobile communication terminal 3, and the audio information is output as a sound wave from the audio output unit of the mobile communication terminal 3.

[ロボット動作メニューの表示]
次に、ロボット20を携帯通信端末3から遠隔操作するために、携帯通信端末3の第一表示領域3aにロボット動作メニューM2(図4参照)を表示させる。
すなわち、携帯通信端末3の押しボタン3cの「*」が押圧される。すると、これに対応するDTMF信号が生成されて、ロボット20に送信される。このとき、携帯通信端末3により撮像された画像情報や音声入力の有無を問わず、これら画像情報や音声情報とともに圧縮処理されて圧縮情報として送信される。
[Display robot operation menu]
Next, in order to remotely operate the robot 20 from the mobile communication terminal 3, the robot operation menu M2 (see FIG. 4) is displayed in the first display area 3a of the mobile communication terminal 3.
That is, “*” of the push button 3 c of the mobile communication terminal 3 is pressed. Then, a DTMF signal corresponding to this is generated and transmitted to the robot 20. At this time, regardless of the presence or absence of image information captured by the mobile communication terminal 3 and audio input, the image information and audio information are compressed together and transmitted as compressed information.

ロボット20では、通信制御部4を介して受信情報処理部6に圧縮情報が入力され、解凍処理がなされる。そして、DTMF信号が指令解析部7に入力される。指令解析部7において、DTMF信号は音声認識解析部7aとDTMF信号解析部7bに入力される。そして、音声認識解析部7aではDTMF信号の入力に対して何も出力しないが、DTMF信号解析部7bではこのDTMF信号の入力に対して、第二コマンド対応表を参照し、対応するコマンドに変換される。この変換されたコマンドが、タイミング制御部5aに対して入力される。   In the robot 20, the compression information is input to the reception information processing unit 6 via the communication control unit 4 and decompression processing is performed. Then, the DTMF signal is input to the command analysis unit 7. In the command analysis unit 7, the DTMF signal is input to the speech recognition analysis unit 7a and the DTMF signal analysis unit 7b. The speech recognition / analysis unit 7a outputs nothing to the input of the DTMF signal, but the DTMF signal analysis unit 7b converts the input of the DTMF signal into a corresponding command by referring to the second command correspondence table. Is done. The converted command is input to the timing control unit 5a.

タイミング制御部5aで、入力されたコマンドを認識して貼付情報一時保持部12に対して、ロボット動作メニューM2を指令メニューファイル14から選択して保持するように指示する。この指示を受けた貼付情報一時保持部12は、ロボット動作メニューM2を選択して保持し、画像合成部13に出力する。以下、前述と同様にして、画像合成部13は、ロボット動作メニューM2を撮像部10からの画像情報に貼り付けて画像合成を行い、合成された画像情報を送信情報処理部16に出力する。送信情報処理部16は、合成された画像情報と音声情報とを併せて圧縮処理して通信制御部4を介して、携帯通信端末3に送信する。   The timing control unit 5a recognizes the input command and instructs the pasting information temporary holding unit 12 to select and hold the robot operation menu M2 from the command menu file 14. Upon receiving this instruction, the pasting information temporary holding unit 12 selects and holds the robot operation menu M <b> 2 and outputs it to the image composition unit 13. Thereafter, in the same manner as described above, the image composition unit 13 performs image composition by pasting the robot operation menu M2 on the image information from the imaging unit 10, and outputs the synthesized image information to the transmission information processing unit 16. The transmission information processing unit 16 compresses the combined image information and audio information together and transmits the compressed information to the mobile communication terminal 3 via the communication control unit 4.

これにより、携帯通信端末3は解凍処理を行って、ロボット動作メニューM2が貼り付けられた画像情報を第一表示領域3aに表示するので、操作者は、第一表示領域3aに表示されたロボット動作メニューM2を見ながら、ロボット20への指令を入力できる。
なお、携帯通信端末3cの第一表示領域3aに表示されているロボット動作メニューM2が邪魔で見難い場合には、携帯通信端末3の「0」の押しボタン3cを押圧すれば、タイミング制御部5aから貼付情報一時保持部12に対して初期メニューM0を一時保持するように切換え指示がなされるので、撮像部10で撮像した画像情報のみを携帯通信端末3の第一表示領域3aに表示できる。
As a result, the mobile communication terminal 3 performs the decompression process and displays the image information with the robot operation menu M2 pasted on the first display area 3a, so that the operator can view the robot displayed on the first display area 3a. A command to the robot 20 can be input while looking at the operation menu M2.
If the robot operation menu M2 displayed in the first display area 3a of the mobile communication terminal 3c is difficult to see, the timing control unit can be operated by pressing the “0” push button 3c of the mobile communication terminal 3. Since the switching instruction is made from 5a to temporarily hold the initial menu M0 to the pasting information temporary holding unit 12, only the image information captured by the imaging unit 10 can be displayed in the first display area 3a of the mobile communication terminal 3. .

[ロボット動作指令(DTMF信号による指令)]
次に、ロボット動作指令をDTMF信号により行う場合を説明する。なお、一例としてロボットを前進させる指令を行う場合を前提とする。
操作者は、携帯通信端末3の第一表示領域3aに表示された動作メニューM2を参照して、ロボット20を前進させる指令として、「2」の押しボタン3cを押圧する。すると、これに対応するDTMF信号が生成されて、ロボット20に送信される。このとき、携帯通信端末3で撮像された画像情報や音声入力の有無を問わず、これら画像情報や音声情報とともに圧縮処理されて圧縮情報として送信される。
また、携帯通信端末3は、「2」の押しボタン3cが押圧されたことで、第二表示領域3bに、ロボット20に「前進」という指令を出した旨を、イラストレータなどの画像情報や文字を表示するようにすることもでき、これで、操作者が如何なる指令をロボット20に対して行ったかを確認し得るようにもできる。
[Robot operation command (command by DTMF signal)]
Next, a case where a robot operation command is performed using a DTMF signal will be described. As an example, it is assumed that a command for moving the robot forward is given.
The operator refers to the operation menu M2 displayed in the first display area 3a of the mobile communication terminal 3 and presses the “2” push button 3c as a command for moving the robot 20 forward. Then, a DTMF signal corresponding to this is generated and transmitted to the robot 20. At this time, regardless of the presence or absence of image information or audio input captured by the mobile communication terminal 3, the image information and audio information are compressed together and transmitted as compressed information.
Further, the portable communication terminal 3 indicates that the instruction “forward” is issued to the robot 20 in the second display area 3b by pressing the “2” push button 3c. Can be displayed, so that it is possible to confirm what command the operator has given to the robot 20.

ロボット20では、通信制御部4を介して受信情報処理部6に圧縮情報が入力され、解凍処理がなされる。そして、DTMF信号が指令解析部7に入力される。指令解析部7では、DTMF信号が音声認識解析部7aとDTMF信号解析部7bとに入力される。そして、音声認識解析部7aではDTMF信号の入力に対して何も出力しないが、DTMF信号解析部7bでは、第二コマンド対応表を参照して、入力されたDTMF信号に対応するコマンドに変換される。この変換されたコマンドはタイミング制御部5aに対して入力される。   In the robot 20, the compression information is input to the reception information processing unit 6 via the communication control unit 4 and decompression processing is performed. Then, the DTMF signal is input to the command analysis unit 7. In the command analysis unit 7, the DTMF signal is input to the speech recognition analysis unit 7a and the DTMF signal analysis unit 7b. The speech recognition analysis unit 7a does not output anything in response to the input of the DTMF signal, but the DTMF signal analysis unit 7b converts the command into a command corresponding to the input DTMF signal with reference to the second command correspondence table. The The converted command is input to the timing control unit 5a.

タイミング制御部5aでは、入力されたコマンドを認識して歩行パターン生成部5c1に対して「前進」の歩行パターンを生成するように指示する。すると、歩行パターン生成部5c1は「前進」の歩行パターンを歩行パターンファイル5c3を参照して生成し、各モータ制御部5c2に制御信号が入力される。これにより、各モータ制御部5c2は入力された制御信号に対応して各アクチュエータ8のモータを制御することで、ロボット20が前進する。   The timing control unit 5a recognizes the input command and instructs the walking pattern generation unit 5c1 to generate a “forward” walking pattern. Then, the walking pattern generation unit 5c1 generates a “forward” walking pattern with reference to the walking pattern file 5c3, and a control signal is input to each motor control unit 5c2. Thereby, each motor control part 5c2 controls the motor of each actuator 8 according to the input control signal, and the robot 20 moves forward.

なお、「前進」以外のロボット動作指令、例えば「停止」や「右旋回」についても、操作者は、ロボット動作メニューM2を参照して携帯通信端末3の対応する押しボタン3cを押圧することで同様にロボット20に対して遠隔操作を行うことができる。このとき、携帯通信端末3の第二表示領域3bに操作者が行った指令を、文字やイラストレータなどで表示するようにすることもできる。   Note that, for the robot operation commands other than “forward”, for example, “stop” and “right turn”, the operator presses the corresponding push button 3c of the mobile communication terminal 3 with reference to the robot operation menu M2. Similarly, the robot 20 can be remotely operated. At this time, the command given by the operator to the second display area 3b of the mobile communication terminal 3 can be displayed with characters, an illustrator, or the like.

[ロボット動作指令(音声入力による指令)]
次に、ロボット動作指令を音声入力により行う場合を説明する。なお、一例としてロボットを前進させる指令を行う場合を前提とする。
操作者は、携帯通信端末3に対して、「前進」という音声を入力する。すると、入力に対応した音声信号が生成されて、ロボット20に送信される。このとき、携帯通信端末3で撮像された画像情報の有無を問わず、画像情報とともに圧縮処理されて圧縮情報として送信される。
[Robot operation command (command by voice input)]
Next, a case where a robot operation command is performed by voice input will be described. As an example, it is assumed that a command for moving the robot forward is given.
The operator inputs a voice “forward” to the mobile communication terminal 3. Then, an audio signal corresponding to the input is generated and transmitted to the robot 20. At this time, regardless of the presence or absence of image information captured by the mobile communication terminal 3, it is compressed together with the image information and transmitted as compressed information.

ロボット20では、通信制御部4を介して受信情報処理部6に圧縮情報が入力され、解凍処理がなされる。そして、「前進」に対応した音声信号が指令解析部7に入力される。入力された音声信号は音声認識解析部7aとDTMF信号解析部7bに入力される。そして、音声認識解析部7aは、音声信号を認識し、第一コマンド対応表T1を参照して認識結果に符合するコマンドをタイミング制御部5aに入力する。なお、DTMF信号解析部7bは音声信号の入力に対して何も出力しない。   In the robot 20, the compression information is input to the reception information processing unit 6 via the communication control unit 4 and decompression processing is performed. Then, an audio signal corresponding to “forward” is input to the command analysis unit 7. The input voice signal is input to the voice recognition analysis unit 7a and the DTMF signal analysis unit 7b. Then, the voice recognition analysis unit 7a recognizes the voice signal and inputs a command that matches the recognition result with reference to the first command correspondence table T1 to the timing control unit 5a. Note that the DTMF signal analysis unit 7b outputs nothing in response to the input of the audio signal.

タイミング制御部5aは、入力されたコマンドを認識して歩行パターン生成部5c1に対して「前進」の歩行パターンを生成するように指示する。すると、歩行パターン生成部5c1は「前進」の歩行パターンを歩行パターンファイル5c3を参照して生成し、各モータ制御部5c2に制御信号が入力される。これにより、各モータ制御部5c2は入力された制御信号に対応して各アクチュエータ8のモータを制御することで、ロボット20が前進する。なお、「前進」以外のロボット動作指令、例えば「停止」や「右旋回」についても、同様に行うことができる。   The timing control unit 5a recognizes the input command and instructs the walking pattern generation unit 5c1 to generate a “forward” walking pattern. Then, the walking pattern generation unit 5c1 generates a “forward” walking pattern with reference to the walking pattern file 5c3, and a control signal is input to each motor control unit 5c2. Thereby, each motor control part 5c2 controls the motor of each actuator 8 according to the input control signal, and the robot 20 moves forward. Note that robot operation commands other than “forward”, for example, “stop” and “right turn” can be performed in the same manner.

[ロボットへの音声出力指令]
次に、ロボット20に対して特定の音声出力をさせるように指令を行う場合について説明する。なお、一例としてロボット20に自己紹介させる場合を前提とする。
操作者は、携帯通信端末3に対して、「自己紹介」という音声を入力する。すると、入力に対応した音声信号が生成されて、ロボット20に送信される。このとき、携帯通信端末3で撮像された画像情報の有無を問わず、画像情報とともに圧縮処理されて圧縮情報として送信される。
[Voice output command to robot]
Next, a case where the robot 20 is instructed to output a specific sound will be described. As an example, it is assumed that the robot 20 introduces itself.
The operator inputs a voice “self-introduction” to the mobile communication terminal 3. Then, an audio signal corresponding to the input is generated and transmitted to the robot 20. At this time, regardless of the presence or absence of image information captured by the mobile communication terminal 3, it is compressed together with the image information and transmitted as compressed information.

ロボット20では、通信制御部4を介して受信情報処理部6に圧縮情報が入力されて解凍処理がなされる。そして、「自己紹介」に対応した音声信号が、指令解析部7に入力される。指令解析部7では、この音声信号が音声認識解析部7aとDTMF信号解析部7bに入力される。音声認識解析部7aでは、音声信号を認識して第一コマンド対応表T1を参照して認識結果に符合するコマンドをタイミング制御部5aに入力する。   In the robot 20, the compression information is input to the reception information processing unit 6 via the communication control unit 4 and decompression processing is performed. Then, an audio signal corresponding to “self-introduction” is input to the command analysis unit 7. In the command analysis unit 7, this voice signal is input to the voice recognition analysis unit 7a and the DTMF signal analysis unit 7b. The voice recognition analysis unit 7a inputs a command that recognizes the voice signal and matches the recognition result with reference to the first command correspondence table T1 to the timing control unit 5a.

タイミング制御部5aでは、入力されたコマンドを認識して発話文章生成部5dに対して「自己紹介」の文章を生成するように指示する。すると、発話文章生成部5dは「自己紹介」の言語ファイルを参照して自己紹介文を生成し、音声合成部9aに出力する。これで、音声合成部9aは音声出力部9bを制御して自己紹介文を音波として出力する。よって、ロボット20はあたかも自己紹介を行う。   The timing control unit 5a recognizes the input command and instructs the utterance sentence generation unit 5d to generate a “self-introduction” sentence. Then, the utterance sentence generator 5d generates a self-introduction sentence with reference to the “self-introduction” language file, and outputs it to the speech synthesizer 9a. Thus, the voice synthesizer 9a controls the voice output unit 9b to output the self-introduction sentence as a sound wave. Therefore, the robot 20 introduces itself as if it were a self-introduction.

なお、携帯通信端末3の押しボタン3cで自己紹介を行うように指令を送信する場合には、次のようになる。
先ず、携帯通信端末3の第一表示領域3aに表示されている指令メニューを、会話コミュニケーションメニューM3に変更する。すなわち、第一表示領域3aにロボット動作メニューM2が表示されている場合には、図4に示すように、「*」の押しボタン3cを押すことにより、前述のロボット動作メニューの表示で説明したのと同様に、タイミング制御部5aから貼付情報一時保持部12に対して、次の指令メニュー、すなわち会話コミュニケーションメニューM3に切り換えて保持するように指示する。これで、第一表示領域3aに表示される指令メニューが会話コミュニケーションメニューM3に切り替わる。
In addition, when transmitting a command to perform self-introduction with the push button 3c of the mobile communication terminal 3, it is as follows.
First, the command menu displayed in the first display area 3a of the mobile communication terminal 3 is changed to the conversation communication menu M3. That is, when the robot operation menu M2 is displayed in the first display area 3a, as shown in FIG. 4, by pressing the push button 3c of “*”, the above-described display of the robot operation menu has been described. Similarly to the above, the timing control unit 5a instructs the pasting information temporary holding unit 12 to switch to and hold the next command menu, that is, the conversation communication menu M3. As a result, the command menu displayed in the first display area 3a is switched to the conversation communication menu M3.

次に、第一表示領域3aに表示されている会話コミュニケーションメニューM3から「自己紹介」が「2」の押しボタン3cに対応することを、操作者は確認して、「2」の押しボタン3cを押圧する。これで、携帯通信端末3で「2」のDTMF信号が生成されてロボット20に送信される。このとき、携帯通信端末3により撮像された画像情報の有無を問わず、画像情報とともに圧縮処理されて圧縮情報として送信される。   Next, the operator confirms from the conversation communication menu M3 displayed in the first display area 3a that “self introduction” corresponds to the push button 3c of “2”, and the push button 3c of “2”. Press. Thus, a “2” DTMF signal is generated by the mobile communication terminal 3 and transmitted to the robot 20. At this time, regardless of the presence or absence of image information captured by the mobile communication terminal 3, it is compressed together with the image information and transmitted as compressed information.

ロボット20では、通信制御部4を介して受信情報処理部6に圧縮情報が入力されて解凍処理がなされる。そして、「2」のDTMF信号が指令解析部7に入力される。指令解析部7では、DTMF信号は音声認識解析部7aとDTMF信号解析部7bとに入力される。そして、DTMF信号解析部7bで第二コマンド対応表を参照して対応するコマンドをタイミング制御部5aに入力する。以下、音声入力した場合と同様な処理を経て、音声合成部9aは、音声出力部9bを制御して、自己紹介文を音波として出力する。よって、ロボット20はあたかも自己紹介を行う。   In the robot 20, the compression information is input to the reception information processing unit 6 via the communication control unit 4 and decompression processing is performed. Then, the DTMF signal “2” is input to the command analysis unit 7. In the command analysis unit 7, the DTMF signal is input to the speech recognition analysis unit 7a and the DTMF signal analysis unit 7b. Then, the DTMF signal analysis unit 7b refers to the second command correspondence table and inputs a corresponding command to the timing control unit 5a. Thereafter, through the same processing as when speech is input, the speech synthesizer 9a controls the speech output unit 9b to output a self-introduction sentence as a sound wave. Therefore, the robot 20 introduces itself as if it were a self-introduction.

[撮像部に対する指令]
次に、ロボット20の撮像部10に対して指令を行う場合を説明する。なお、一例として撮像部10の撮像方向を右(「→」)に変更する場合を前提とする。
先ず、携帯通信端末3の第一表示領域3aに表示されている指令メニューを、撮像部制御メニューM1に変更する。すなわち、図4に示すように、第一表示領域3aに会話コミュニケーションメニューM3が表示されている場合には「*」を一回押圧することで、ロボット動作メニューM2が表示されている場合には「*」を二回押圧することで、初期メニューM0が表示されている場合には「*」を三回押圧することで変更できる。
[Command for imaging unit]
Next, a case where a command is given to the imaging unit 10 of the robot 20 will be described. As an example, it is assumed that the imaging direction of the imaging unit 10 is changed to the right (“→”).
First, the command menu displayed in the first display area 3a of the mobile communication terminal 3 is changed to the imaging unit control menu M1. That is, as shown in FIG. 4, when the conversation communication menu M3 is displayed in the first display area 3a, the robot operation menu M2 is displayed by pressing “*” once. If the initial menu M0 is displayed by pressing “*” twice, it can be changed by pressing “*” three times.

次に、第一表示領域3aに表示されている撮像部制御メニューM1から、操作者は「→」が「6」の押しボタン3cに対応することを確認して、「6」の押しボタン3cを押圧する。これで、携帯通信端末3で「6」のDTMF信号が生成されて、ロボット20に送信される。このとき、携帯通信端末3により撮像された画像情報の有無を問わず、画像情報とともに圧縮処理されて圧縮情報として送信される。   Next, from the imaging unit control menu M1 displayed in the first display area 3a, the operator confirms that “→” corresponds to the push button 3c of “6”, and push button 3c of “6”. Press. Thus, a DTMF signal “6” is generated by the mobile communication terminal 3 and transmitted to the robot 20. At this time, regardless of the presence or absence of image information captured by the mobile communication terminal 3, it is compressed together with the image information and transmitted as compressed information.

ロボット20では、通信制御部4を介して受信情報処理部6に圧縮情報が入力されて解凍処理がなされる。そして、「6」のDTMF信号が指令解析部7に入力される。指令解析部7のDTMF信号解析部7bで、第二コマンド対応表を参照して対応するコマンドに変換し、このコマンドをタイミング制御部5aに入力する。   In the robot 20, the compression information is input to the reception information processing unit 6 via the communication control unit 4 and decompression processing is performed. Then, the DTMF signal “6” is input to the command analysis unit 7. The DTMF signal analysis unit 7b of the command analysis unit 7 converts the command into a corresponding command with reference to the second command correspondence table, and inputs this command to the timing control unit 5a.

タイミング制御部5aでは、入力されたコマンドを認識して撮像制御部5eに対して撮像部10で撮像する方向を右に変更するように指示する。これにより、撮像部10に対して撮像する方向を右に変更できる。なお、操作者の音声入力でも同様に行い得る。
また、図4に示した撮像部制御メニューM1には、照明部11に対する指令メニュー、すなわち、照明部11のON/OFFに対する指令も含まれているので、同様にして、照明制御部5fを制御して照明部11のライトのON、OFFを行うことができる。
The timing control unit 5a recognizes the input command and instructs the imaging control unit 5e to change the imaging direction of the imaging unit 10 to the right. Thereby, the imaging direction with respect to the imaging unit 10 can be changed to the right. The same operation can be performed by an operator's voice input.
In addition, since the imaging unit control menu M1 shown in FIG. 4 includes a command menu for the illumination unit 11, that is, a command for ON / OFF of the illumination unit 11, the illumination control unit 5f is similarly controlled. Thus, the light of the illumination unit 11 can be turned on and off.

[ロボットが不審物を検知したとき]
次に、携帯通信端末3とロボット20とが通話未接続状態であることを前提として、ロボット20が不審物を検知したときのロボット20の動作について説明する。
不審物検知処理部17において不審物が検出されると、タイミング制御部5aに対して不審物検出通知がなされる。すると、タイミング制御部5aは電話発信処理部5gに対して、予め格納されている特定の電話番号と通話接続するように指示する。これを受けて、電話発信処理部5gでは、通話接続の指示を受けると、通信制御部4の通信処理部4aに対して、特定の電話番号と通話接続するように指示する。
これで、ロボット20と特定の電話番号の携帯通信端末3とは通話接続状態になる。
[When the robot detects a suspicious object]
Next, the operation of the robot 20 when the robot 20 detects a suspicious object will be described on the assumption that the mobile communication terminal 3 and the robot 20 are not connected to each other.
When a suspicious object is detected in the suspicious object detection processing unit 17, a suspicious object detection notification is made to the timing control unit 5a. Then, the timing control unit 5a instructs the telephone call processing unit 5g to make a call connection with a specific telephone number stored in advance. In response to this, when receiving a call connection instruction, the telephone call processing unit 5g instructs the communication processing unit 4a of the communication control unit 4 to make a call connection with a specific telephone number.
Thus, the robot 20 and the mobile communication terminal 3 having a specific telephone number are in a call connection state.

そして、タイミング制御部5aは電話発信処理部5gから通話接続開始となった旨を受けて、貼付情報一時保持部12に対して、指令メニューファイル14から初期メニューM0(図4参照)を取得するとともに、不審物検知情報ファイル18から不審物検知情報を取得して、初期メニューM0の所定の位置に不審物検知情報を貼り付けて保持するように指示する。この指示を受けた貼付情報一時保持部12は、指令メニューファイル14から初期メニューM0を、不審物検知情報ファイル18から不審物検知情報を、それぞれ取得して、初期メニューM0の所定の位置に不審物検知情報を貼り付けて保持する。そして、画像合成部13は、撮像部10で撮像した画像情報に、貼付情報一時保持部12に保持されている不審物検知情報付の初期メニューM0を貼り付けて画像合成を行い、合成された画像情報を送信情報処理部16に出力する。   Then, the timing control unit 5a acquires the initial menu M0 (see FIG. 4) from the command menu file 14 to the pasting information temporary holding unit 12 in response to the start of the call connection from the telephone call processing unit 5g. At the same time, the suspicious object detection information is acquired from the suspicious object detection information file 18, and the suspicious object detection information is pasted and held at a predetermined position of the initial menu M0. Receiving this instruction, the pasting information temporary holding unit 12 acquires the initial menu M0 from the command menu file 14 and the suspicious object detection information from the suspicious object detection information file 18, respectively, and suspiciously moves to a predetermined position of the initial menu M0. Paste and hold object detection information. Then, the image synthesis unit 13 performs image synthesis by pasting the initial menu M0 with suspicious object detection information held in the pasting information temporary holding unit 12 on the image information captured by the imaging unit 10, and synthesized the image. The image information is output to the transmission information processing unit 16.

よって、送信情報処理部16は、合成された画像情報と音声情報とを併せて圧縮処理して、通信制御部4を介して携帯通信端末3に送信する。
これにより、携帯通信端末3は、受信した圧縮情報を解凍して、合成された画像情報を第一表示領域3aに表示する。この表示された合成画像情報、すなわち、不審物検出情報を貼り付けた初期メニュー付きの画像情報を、携帯通信端末3を所持する者が見ることで、不審物があることが分かる。
Therefore, the transmission information processing unit 16 compresses the combined image information and audio information together and transmits the compressed information to the mobile communication terminal 3 via the communication control unit 4.
Thereby, the mobile communication terminal 3 decompresses the received compressed information and displays the synthesized image information in the first display area 3a. The person holding the mobile communication terminal 3 sees the displayed composite image information, that is, the image information with the initial menu to which the suspicious object detection information is pasted.

以上説明したように、ロボット2,20では、携帯通信端末3に送信される情報の中に、ロボット2,20の指令メニューに関する情報を組み込むことで、操作者に、ロボット2,20の動作指令のメニューを教示することができる。よって、操作者は所望の動作指令がどの押しボタン3cに対応するかを容易に知ることができる。これにより、ロボット2,20を携帯通信端末3により遠隔操作できるので、ロボット2,20が家庭に広く受け入れられ、誰でもロボット2,20を遠隔操作できるようになる。
また、ロボット2,20を自宅やビルの一室、工場内に配置しておき、携帯通信端末3から電話をかけることで、ロボット2,20の撮像部10で撮像された画像を携帯通信端末3の第一表示部3aに表示できるので、各種のセキュリティシステムの一道具として用いることができる。特に、不審物検知処理部17を備えたロボット20の場合には、有用である。
As described above, in the robots 2 and 20, information related to the command menu of the robots 2 and 20 is incorporated into the information transmitted to the mobile communication terminal 3, so that the operation commands of the robots 2 and 20 can be given to the operator. You can teach the menu. Therefore, the operator can easily know which push button 3c corresponds to the desired operation command. Thereby, since the robots 2 and 20 can be remotely operated by the mobile communication terminal 3, the robots 2 and 20 are widely accepted in homes, and anyone can remotely operate the robots 2 and 20.
In addition, the robots 2 and 20 are placed in a room of a home or building and in a factory, and an image picked up by the imaging unit 10 of the robots 2 and 20 is obtained by making a call from the mobile communication terminal 3. 3 can be used as a tool for various security systems. In particular, it is useful in the case of the robot 20 including the suspicious object detection processing unit 17.

なお、指令メニューファイル14や不審物検知情報ファイル18は、ロボット20をパーソナルコンピュータにケーブル接続し、パーソナルコンピュータで作成した新しい各ファイルを転送して、適宜書き換えることができる。
また、貼付情報一時保持部12には、単に指令メニューファイル14や不審物検知情報ファイル18から貼付情報を取得するばかりでなく、一般的な文字情報や画像情報を格納したファイルから貼付情報を生成する貼付情報生成部を設け、タイミング制御部5aから貼付情報生成の指令を貼付情報生成部に対して行い、貼付情報生成部で生成した貼付情報を貼付情報一時保持部12に保持するようにしてもよい。
このとき、撮像部10で撮像された画像情報に貼り付ける情報としては、前述したもののほかに、現にタイミング制御部5aに入力されたコマンドの種類や、ロボット2,20の内部状況、例えば、アクチュエータ8のモータの異常やロボット2,20のバッテリーの減少量なども挙げることができる。
The command menu file 14 and the suspicious object detection information file 18 can be appropriately rewritten by connecting the robot 20 to a personal computer with a cable and transferring each new file created by the personal computer.
The pasting information temporary storage unit 12 generates not only pasting information from the command menu file 14 and the suspicious object detection information file 18 but also creates pasting information from a file storing general character information and image information. A pasting information generation unit that performs a pasting information generation instruction from the timing control unit 5a to the pasting information generation unit, and holds the pasting information generated by the pasting information generation unit in the pasting information temporary holding unit 12 Also good.
At this time, as information to be pasted on the image information captured by the image capturing unit 10, in addition to the information described above, the type of command actually input to the timing control unit 5 a, the internal state of the robot 2, 20, for example, an actuator The abnormalities of the motor No. 8 and the amount of decrease in the battery of the robots 2 and 20 can also be mentioned.

なお、以上の説明では、携帯通信端末3は、携帯テレビ電話端末などの携帯通信端末であることを想定している。これは、現在、ゲームやメール送受信などもでき広く社会に受け入れられていることを考慮したものであるため、携帯通信端末3は、これに限定されることなく、ロボット2,20と通信制御部4と通話接続可能な端末であればよい。携帯通信端末3としては、テンキー付きの音声通話装置、例えば、通信会社の交換機を介さずに接続可能なコードレス電話の親機や子機などであってもよい。
また、本発明の実施の形態1および2では、ロボット2,20と携帯通信端末3とはインターネットを用いて接続していないので、不特定の者はロボット2,20の配置箇所、例えば室内を覗くことができない。よって、ロボット2,2と携帯通信端末3とで安全なセキュリティシステムを構築することができる。
In the above description, it is assumed that the mobile communication terminal 3 is a mobile communication terminal such as a mobile videophone terminal. This is because it is possible to send and receive games and emails and is widely accepted by society. Therefore, the mobile communication terminal 3 is not limited to this, and the robots 2 and 20 and the communication control unit Any terminal can be used as long as it can be connected to the telephone 4. The mobile communication terminal 3 may be a voice communication device with a numeric keypad, for example, a cordless telephone base unit or handset that can be connected without using a communication company exchange.
In the first and second embodiments of the present invention, the robots 2 and 20 and the mobile communication terminal 3 are not connected using the Internet. I can't peek. Therefore, a safe security system can be constructed with the robots 2 and 2 and the mobile communication terminal 3.

以上説明した実施の形態は、本発明の一例に過ぎず、特許請求の範囲に記載した発明の範囲内で種々変更が可能である。   The embodiment described above is merely an example of the present invention, and various modifications can be made within the scope of the invention described in the claims.

本発明の実施の形態1によるロボット遠隔操作システムの機能ブロック構成図である。It is a functional block block diagram of the robot remote control system by Embodiment 1 of this invention. 図1のロボットの機能ブロック図である。It is a functional block diagram of the robot of FIG. 図2の指令解析部に格納される第一コマンド対応表の一例である。It is an example of the 1st command corresponding table stored in the command analysis part of FIG. 図4の指令メニューファイルとして格納される一連の指令メニューを模式的に示したものである。Fig. 5 schematically shows a series of command menus stored as a command menu file in Fig. 4. 本発明の実施の形態2によるロボット遠隔操作システムを構成するロボットの機能ブロック構成図である。It is a functional block block diagram of the robot which comprises the robot remote control system by Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 ロボット操作遠隔システム
2,20 ロボット
21 関節部
3 携帯通信端末
3a 第一表示領域
3b 第二表示領域
3c 押しボタン
4 通信制御部
4a 通信処理部
4b 送受信部
5 制御部
5a タイミング制御部
5b 発信番号確認処理部
5c 動作制御部
5c1 歩行パターン生成部
5c2 モータ制御部
5c3 歩行パターンファイル
5d 発話文章生成部
5e 撮像制御部
5f 照明制御部
5g 電話発信処理部
6 受信情報処理部
7 指令解析部
7a 音声認識解析部
7b DTMF信号解析部
8 アクチュエータ
9a 音声合成部
9b 音声出力部
10 撮像部
11 照明部
12 貼付情報一時保持部
13 画面合成部
14 指令メニューファイル
15 音入力部
16 送信情報処理部
17 不審物検知処理部
17a 音声処理部
17b 画像処理部
17c センサー
18 不審物検知情報ファイル
DESCRIPTION OF SYMBOLS 1 Robot operation remote system 2,20 Robot 21 Joint part 3 Portable communication terminal 3a 1st display area 3b 2nd display area 3c Push button 4 Communication control part 4a Communication processing part 4b Transmission / reception part 5 Control part 5a Timing control part 5b Transmission number Confirmation processing unit 5c Operation control unit 5c1 Walking pattern generation unit 5c2 Motor control unit 5c3 Walking pattern file 5d Utterance sentence generation unit 5e Imaging control unit 5f Lighting control unit 5g Telephone transmission processing unit 6 Reception information processing unit 7 Command analysis unit 7a Voice recognition Analysis unit 7b DTMF signal analysis unit 8 Actuator 9a Speech synthesis unit 9b Audio output unit 10 Imaging unit 11 Illumination unit 12 Paste information temporary storage unit 13 Screen synthesis unit 14 Command menu file 15 Sound input unit 16 Transmission information processing unit 17 Suspicious object detection Processing unit 17a Audio processing unit 17b Image processing Part 17c sensor 18 suspicious object detection information file

Claims (6)

携帯通信端末で遠隔操作できるロボットにおいて、
上記携帯通信端末と通話接続を行う通信制御部と、
撮像を行う撮像部と、
上記通信制御部が上記携帯通信端末と通話接続中に、上記撮像部で撮像した画像情報にロボット遠隔操作用の指令メニューを貼り付けて画像合成を行う画像合成部と、を備えることを特徴とするロボット。
In a robot that can be remotely operated with a mobile communication terminal,
A communication control unit for making a call connection with the mobile communication terminal;
An imaging unit for imaging;
An image composition unit for compositing an image by pasting a command menu for remote control of a robot to image information captured by the image capture unit while the communication control unit is connected to the mobile communication terminal; Robot to do.
前記画像合成部で貼り付けられる一連の指令メニューを格納する指令メニューファイルと、
前記指令メニューファイルから前記画像合成部で貼り付けられる指令メニューを切換え可能に一時保持する貼付情報一時保持部とを備えることを特徴とする、請求項1に記載のロボット。
A command menu file for storing a series of command menus to be pasted in the image composition unit;
The robot according to claim 1, further comprising: a pasting information temporary holding unit that temporarily holds a command menu pasted by the image composition unit from the command menu file in a switchable manner.
前記一連の指令メニューには、
前記撮像部に対する指令を、前記携帯通信端末のボタンに対応させて表示した撮像部制御メニューと、
駆動機構に対する指令を、前記携帯通信端末のボタンに対応させて表示したロボット動作メニューと、
音声出力に関する指令を、前記携帯通信端末のボタンに対応させて表示した会話コミュニケーションメニューと、
を含むことを特徴とする、請求項2に記載のロボット。
In the series of command menus,
An imaging unit control menu that displays instructions for the imaging unit in correspondence with buttons of the mobile communication terminal;
A robot operation menu that displays instructions for the drive mechanism in correspondence with the buttons of the mobile communication terminal;
A conversation communication menu displaying instructions related to voice output in correspondence with the buttons of the mobile communication terminal;
The robot according to claim 2, comprising:
不審物検知を行う不審物検知処理部と、
上記不審物検知処理部から不審物検知情報を受けると、前記通信制御部に対して前記携帯通信端末と通話接続を行うように指示するとともに、該指示により前記通信制御部と前記携帯通信端末とが通話接続中になると、前記撮像部で撮像した画像情報に不審物検知情報を貼り付けるように指示を行う制御部と、を備えることを特徴とする、請求項1〜3の何れかに記載のロボット。
A suspicious object detection processing unit for detecting a suspicious object;
Upon receiving suspicious object detection information from the suspicious object detection processing unit, the communication control unit is instructed to establish a call connection with the portable communication terminal, and the communication control unit and the portable communication terminal are instructed by the instruction. A control unit that instructs to paste suspicious object detection information on image information captured by the image capturing unit when a call is being connected. 5. Robot.
前記不審物検知処理部は、
前記撮像部で撮像された画像情報を処理して不審物判定を行い、不審物有りと判定した場合前記制御部に対して不審物検知を通知する画像処理部を備えることを特徴とする、請求項4に記載のロボット。
The suspicious object detection processing unit
An image processing unit that processes image information captured by the imaging unit to perform suspicious object determination, and determines that there is a suspicious object, includes an image processing unit that notifies the control unit of suspicious object detection. Item 5. The robot according to item 4.
前記不審物検知処理部は、
音入力部で入力変換された音声情報を処理して不審物判定を行い、不審物有りと判定した場合に前記制御部に対して不審物検知を通知する画像処理部を備えることを特徴とする、請求項4または5に記載のロボット。
The suspicious object detection processing unit
It comprises an image processing unit that processes the audio information input and converted by the sound input unit to perform suspicious object determination, and notifies the control unit of suspicious object detection when it is determined that there is a suspicious object. The robot according to claim 4 or 5.
JP2004056930A 2004-03-01 2004-03-01 robot Expired - Lifetime JP4081796B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004056930A JP4081796B2 (en) 2004-03-01 2004-03-01 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004056930A JP4081796B2 (en) 2004-03-01 2004-03-01 robot

Publications (2)

Publication Number Publication Date
JP2005246503A true JP2005246503A (en) 2005-09-15
JP4081796B2 JP4081796B2 (en) 2008-04-30

Family

ID=35027482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004056930A Expired - Lifetime JP4081796B2 (en) 2004-03-01 2004-03-01 robot

Country Status (1)

Country Link
JP (1) JP4081796B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210070677A (en) * 2019-12-05 2021-06-15 주식회사 큐엔티 Method and apparatus for outputting abnormal condition of robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210070677A (en) * 2019-12-05 2021-06-15 주식회사 큐엔티 Method and apparatus for outputting abnormal condition of robot
KR102313620B1 (en) * 2019-12-05 2021-10-19 주식회사 큐엔티 Method and apparatus for outputting abnormal condition of robot

Also Published As

Publication number Publication date
JP4081796B2 (en) 2008-04-30

Similar Documents

Publication Publication Date Title
JP3862762B2 (en) Communication terminal system and communication terminal device
US8639301B2 (en) Portable telephone, imaging system employing portable telephone and imaging method
JP3553050B2 (en) Videophone monitoring system
JP4605028B2 (en) Remote control system, remote control communication device, and controlled communication device
JP2005246502A (en) Robot
JP4081796B2 (en) robot
JP4458830B2 (en) Elevator monitoring device
JP4469265B2 (en) TV door phone device
JP2006032998A (en) Radio doorphone system
JP2002032241A (en) Debugging method and debugging device of contents for cellular telephone
JP2020025284A (en) Information processing system and radio terminal
JPH118823A (en) Portable terminal, electronic image pickup device and image pickup system
JP2005286445A (en) Image transmission terminal, system thereof and terminal image transmitting method
KR20010068001A (en) Mobile communication terminal with time warning and background image control
JP6941788B2 (en) Doorphone system and communication method
JPH09214619A (en) Video telephone system
JP2002305567A (en) Mobile terminal
JP2020095313A (en) robot
JP3120847B2 (en) Telephone equipment
KR100289437B1 (en) Close-up Control and Method of Video Phone
JP2004260299A (en) Mobile videophone
JP3880559B2 (en) Image communication device
JP3315753B2 (en) Image communication terminal
JP2023018216A (en) Intercom device and control method thereof
JP3689609B2 (en) Image communication device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080201

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140222

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350