JP2003050559A - Autonomously movable robot - Google Patents

Autonomously movable robot

Info

Publication number
JP2003050559A
JP2003050559A JP2001239156A JP2001239156A JP2003050559A JP 2003050559 A JP2003050559 A JP 2003050559A JP 2001239156 A JP2001239156 A JP 2001239156A JP 2001239156 A JP2001239156 A JP 2001239156A JP 2003050559 A JP2003050559 A JP 2003050559A
Authority
JP
Japan
Prior art keywords
mobile robot
autonomous mobile
advertisement
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001239156A
Other languages
Japanese (ja)
Other versions
JP4642287B2 (en
Inventor
Yoshiaki Sakagami
義秋 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001239156A priority Critical patent/JP4642287B2/en
Publication of JP2003050559A publication Critical patent/JP2003050559A/en
Application granted granted Critical
Publication of JP4642287B2 publication Critical patent/JP4642287B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an autonomously movable robot which can freely change advertisement contents and improve the effect of the advertisement. SOLUTION: The autonomously movable robot, which autonomously moves in a predetermined area to advertise, is equipped with a communication means for accessing an information providing server which is arranged outside, an advertising means which displays or voices the contents of advertisement, and a control means which reads advertisement information stored on the information providing server through the communication means and outputs it to the advertising means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、予め決められた領
域を自律的に移動して広告を行う自律移動ロボットに関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous mobile robot that autonomously moves in a predetermined area to advertise.

【0002】[0002]

【従来の技術】従来の街中での広告は、ポスターや看
板、壁面に描かれたものなどの静止表示と電光パネルや
液晶パネルなどの動画像表示の2種類が知られている。
また、特開平6−43823号公報に記載されているよ
うに、ICメモリに予め記録した文字や図形の表示を行
ったり無線によって表示文字、図形を送信し表示しなが
ら移動する自律型走行車が知られている。
2. Description of the Related Art Conventionally, there are known two types of advertisements in the city: static display such as posters, signboards, and those drawn on walls, and moving image display such as electronic panels and liquid crystal panels.
Further, as described in Japanese Patent Application Laid-Open No. 6-43823, an autonomous traveling vehicle that displays characters or figures pre-recorded in an IC memory or wirelessly transmits and displays displayed characters or figures is known. Are known.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、看板や
電光パネルによる広告は、その付近にいる者でかつ関心
のある者しか見ることができないため、広告の効果を予
測することが困難であるという問題がある。また、IC
メモリでは、容量に限界があり、表示可能な文字や図形
に制約を受けるため、自由に広告内容を変更することが
困難であるという問題もある。さらに、走行車は、車輪
によって走行するために移動できる場所が限られ、空港
内、電車内、スタジアム、劇場内等において広告を行う
ことが困難であるという問題もある。
However, it is difficult to predict the effect of the advertisement because the advertisement by the signboard or the electronic panel can only be seen by those who are in the vicinity and interested. There is. Also, IC
There is also a problem that it is difficult to freely change the content of the advertisement because the memory has a limited capacity and is restricted by the characters and figures that can be displayed. In addition, traveling vehicles are limited in places where they can be moved by wheels so that it is difficult to advertise in airports, trains, stadiums, theaters and the like.

【0004】本発明は、このような事情に鑑みてなされ
たもので、広告内容を自由に変更することができ、広告
の効果を向上することができる自律移動ロボットを提供
することを目的とする。
The present invention has been made in view of the above circumstances, and an object thereof is to provide an autonomous mobile robot capable of freely changing the content of advertisement and improving the effect of advertisement. .

【0005】[0005]

【課題を解決するための手段】請求項1に記載の発明
は、予め決められた領域を自律的に移動して広告を行う
自律移動ロボットであって、前記自律移動ロボットは、
外部に配置された情報提供サーバにアクセスするための
通信手段と、前記広告の内容を表示または発声する広告
手段と、前記通信手段を介して前記情報提供サーバに蓄
えられている広告情報を読み出して前記広告手段に対し
て出力する制御手段とを備えたことを特徴とする。この
発明によれば、通信手段を介して情報提供サーバに蓄え
られている広告情報を読み出して、広告の内容を表示ま
たは発声するようにしたため、内容が豊富な広告を効率
良く行うことが可能になるという効果が得られる。
According to a first aspect of the present invention, there is provided an autonomous mobile robot that autonomously moves in a predetermined area to perform an advertisement, the autonomous mobile robot comprising:
Communication means for accessing an information providing server arranged externally, advertising means for displaying or uttering the content of the advertisement, and reading out advertisement information stored in the information providing server via the communication means And a control means for outputting to the advertising means. According to the present invention, the advertisement information stored in the information providing server is read out via the communication means, and the content of the advertisement is displayed or uttered. Therefore, it is possible to efficiently perform an advertisement having a large content. The effect of becoming

【0006】請求項2に記載の発明は、前記自律移動ロ
ボットは、周囲の画像を取得する画像取得手段と、前記
画像を解析することにより人間が存在するか否かを判断
する画像解析手段と、前記画像解析手段の判断結果に基
づいて、人間がより多く存在する領域に移動する行動計
画手段とをさらに備えたことを特徴とする。この発明に
よれば、取得した画像を解析することにより人間が存在
するか否かを判断し、この判断結果に基づいて、人間が
より多く存在する領域に移動するようにしたため、広告
相手である人間が存在する領域に自律的に移動し、効率
良く広告を行うことができるという効果が得られる。
[0006] According to a second aspect of the present invention, the autonomous mobile robot comprises image acquisition means for acquiring an image of the surroundings, and image analysis means for analyzing the image to determine whether or not a human is present. Further, there is further provided action planning means for moving to an area where more humans exist, based on the judgment result of the image analysis means. According to the present invention, it is determined whether or not a human is present by analyzing the acquired image, and based on the result of the determination, the human is moved to an area in which more humans are present. It is possible to autonomously move to an area in which humans exist and effectively advertise.

【0007】請求項3に記載の発明は、前記自律移動ロ
ボットは、周囲の人間の音声を認識する音声認識手段
と、前記音声に応じて所定の動作を行なう応答手段とを
さらに備えたことを特徴とする。この発明によれば、周
囲の人間の音声を認識して、認識した音声に応じて所定
の動作を行うことによって応答するようにしたため、周
囲の注目を集めて、広告の効果を増大することができる
という効果が得られる。
According to a third aspect of the present invention, the autonomous mobile robot further includes voice recognition means for recognizing the voices of surrounding humans, and response means for performing a predetermined operation in response to the voice. Characterize. According to the present invention, the voices of the people around them are recognized, and a response is made by performing a predetermined action in accordance with the recognized voices. Therefore, it is possible to attract the attention of the surroundings and increase the effect of the advertisement. The effect that it can be obtained.

【0008】請求項4に記載の発明は、前記自律移動ロ
ボットは、前記画像解析手段の判断結果に基づいて、対
面する人間の位置を認識する位置認識手段と、前記位置
認識手段によって認識された人間の顔を注視する視線指
示手段とをさらに備えたことを特徴とする。この発明に
よれば、画像解析結果に基づいて、対面する人間の位置
を認識し、この認識された人間の顔を注視するようにし
たため、ロボットの存在を強く印象づけるとともにロボ
ット自身が提示する広告効果が有効的に発揮されるとい
う効果が得られる。
According to a fourth aspect of the present invention, the autonomous mobile robot recognizes the position of a human being faced by the position recognizing unit and the position recognizing unit based on the determination result of the image analyzing unit. And a line-of-sight instruction means for gazing at a human face. According to the present invention, the position of the facing human is recognized based on the image analysis result, and the face of the recognized human is gazed at. Therefore, the presence of the robot is strongly impressed and the advertising effect presented by the robot itself is displayed. The effect that is effectively exhibited is obtained.

【0009】請求項5に記載の発明は、前記自律移動ロ
ボットは、前記画像解析手段の判断結果に基づいて、自
己の移動予定方向に人間が存在しているか否を判断し、
移動予定方向に人間が存在する場合に注意を促す喚起手
段をさらに備えたことを特徴とする。この発明によれ
ば、画像解結果に基づいて、自己の移動予定方向に人間
が存在しているか否を判断し、移動予定方向に人間が存
在する場合に注意を促すようにしたため、移動にする際
に障害となる人間に対して移動を喚起して、ロボット自
身の行動を円滑にさせることができるという効果が得ら
れる。
According to a fifth aspect of the present invention, the autonomous mobile robot determines whether or not a person is present in the planned moving direction based on the determination result of the image analysis means.
It is characterized in that it further comprises a calling means for calling attention when a person is present in the planned moving direction. According to the present invention, it is determined whether or not a person is present in the planned moving direction based on the image solution result, and attention is given when the person is present in the planned moving direction. In this case, it is possible to obtain an effect that the movement of the robot can be evoked to the person who becomes an obstacle and the behavior of the robot itself can be smoothed.

【0010】請求項6に記載の発明は、前記自律移動ロ
ボットは、自己の行動範囲が定義されたグローバルマッ
プを備えたことを特徴とする。この発明によれば、ロボ
ットの行動範囲地図情報であるグローバルマップを備え
たため、このグローバルマップに定義された障害物の位
置、階段、玄関などの位置情報に基づいてロボット自身
の位置を正確に認識することができるという効果が得ら
れる。
According to a sixth aspect of the present invention, the autonomous mobile robot is provided with a global map in which its own action range is defined. According to the present invention, since the robot includes the global map which is the movement range map information of the robot, the position of the robot itself is accurately recognized based on the position information of the obstacle, stairs, entrance, etc. defined in the global map. The effect of being able to do is obtained.

【0011】請求項7に記載の発明は、前記情報提供サ
ーバは、インターネットに接続されたサーバであること
を特徴とする。この発明によれば、インターネットを介
して広告すべき情報を取り入れることにより、一度に複
数種類の情報を広告することができるという効果が得ら
れる。
The invention according to claim 7 is characterized in that the information providing server is a server connected to the Internet. According to the present invention, it is possible to advertise a plurality of types of information at a time by incorporating information to be advertised via the Internet.

【0012】請求項8に記載の発明は、前記自律移動ロ
ボットは、人間型の脚式二足歩行ロボットであることを
特徴とする。この発明によれば、人間の形状をした脚式
移動ロボットを利用することにより、周囲の人間に対し
て親近感を与えて、注目を集めることが可能となり、広
告効果を増大することができるという効果が得られる。
According to an eighth aspect of the present invention, the autonomous mobile robot is a humanoid legged bipedal walking robot. According to the present invention, by using a legged mobile robot in the shape of a human being, it is possible to give a sense of familiarity to surrounding human beings and attract attention, thereby increasing the advertising effect. The effect is obtained.

【0013】[0013]

【発明の実施の形態】以下、本発明の一実施形態による
自律移動ロボットを図面を参照して説明する。図1は同
実施形態の構成を示すブロック図である。この図におい
て、符号1は、人間型の脚式で二足歩行可能な自律移動
ロボット(以下、ロボットと称する)であり、2本の腕
によって情報表示装置Fを携行している。情報表示装置
Fは、動画を表示することができるディスプレイと音声
を発声するスピーカを備えている。符号2は、無線通信
を行うための基地局であり、無線装置31とロボット1
の動作をオペレータが操作するためのロボット操作部3
2からなる。符号3は、インターネットである。符号4
〜6は、インターネット3に接続された情報提供サーバ
であり、広告情報が蓄えられている。符号7は、インタ
ーネット3に接続され、無線通信によって通信回線を確
立するための基地局であり、ロボット1とインターネッ
ト3との間の通信回線を確立する。符号8は、ロボット
1に対して配信する情報の管理を行う配信管理サーバで
あり、情報配信スケジュールが定義されたタイムテーブ
ル9に基づいて情報配信の管理を行う。
BEST MODE FOR CARRYING OUT THE INVENTION An autonomous mobile robot according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the same embodiment. In this figure, reference numeral 1 is an autonomous mobile robot (hereinafter referred to as a robot) capable of bipedal walking with a humanoid leg, and carries an information display device F with two arms. The information display device F includes a display that can display a moving image and a speaker that produces a voice. Reference numeral 2 is a base station for performing wireless communication, and includes the wireless device 31 and the robot 1.
Robot operation unit 3 for the operator to operate the movements of
It consists of two. Reference numeral 3 is the Internet. Code 4
Reference numerals 6 to 6 are information providing servers connected to the Internet 3 and store advertisement information. Reference numeral 7 is a base station that is connected to the Internet 3 and establishes a communication line by wireless communication, and establishes a communication line between the robot 1 and the Internet 3. Reference numeral 8 is a distribution management server that manages information to be distributed to the robot 1, and manages information distribution based on a timetable 9 in which an information distribution schedule is defined.

【0014】次に、図2を参照して、図1に示すロボッ
ト1の構成を説明する。図2は、図1に示すロボット1
の構成を示すブロック図である。符号10は、2台のカ
ラーCCDカメラで構成されるステレオカメラ(以下、
カメラと称する)である。符号Aは、画像認識部であ
り、符号11は、カメラ10によって得られた2つの画
像から距離画像を生成するステレオ処理部である。符号
12は、得られた画像から移動体を抽出する移動体抽出
部である。符号13は、得られた画像から人間の顔領域
を検出する顔検出部である。符号14は、移動体や顔を
検出するために、得られた画像から生成したローカルマ
ップである。符号15は、自己の進路上に障害がある場
合に回避する経路を生成する回避経路生成部である。符
号Bは、音声認識装置であり、音声合成部18と音声認
識部19とからなる。符号16は、スピーカであり、音
声合成された音声を発声する。符号17は、マイクであ
り、集めた音を音声認識部19によって認識する。音声
合成部18、音声認識部19では、周囲の人間から話し
掛けられた場合に、マイク17より入力した音声を音声
認識部19により認識し、応答文を音声合成部18で再
生する。
Next, the configuration of the robot 1 shown in FIG. 1 will be described with reference to FIG. FIG. 2 shows the robot 1 shown in FIG.
3 is a block diagram showing the configuration of FIG. Reference numeral 10 is a stereo camera (hereinafter,
It is called a camera). Reference numeral A is an image recognition unit, and reference numeral 11 is a stereo processing unit that generates a distance image from two images obtained by the camera 10. Reference numeral 12 is a moving body extraction unit that extracts a moving body from the obtained image. Reference numeral 13 is a face detection unit that detects a human face area from the obtained image. Reference numeral 14 is a local map generated from the obtained image in order to detect a moving body or a face. Reference numeral 15 is an avoidance route generation unit that generates a route to be avoided when there is a failure on its own path. Reference numeral B is a voice recognition device, which includes a voice synthesis unit 18 and a voice recognition unit 19. Reference numeral 16 is a speaker, which utters a synthesized voice. Reference numeral 17 is a microphone, and the voice recognition unit 19 recognizes the collected sound. In the voice synthesizing unit 18 and the voice recognizing unit 19, the voice input from the microphone 17 is recognized by the voice recognizing unit 19 when the surrounding person speaks, and the voice synthesizing unit 18 reproduces the response sentence.

【0015】符号Cは、行動計画部であり、符号20
は、人間に対して応答を行う人応答指示部である。符号
21は、自己の移動のための制御を指示する移動指示部
である。符号22は、自己の視線を動かすための制御を
指示する視線指示部である。符号23は、グローバルマ
ップGに基づいて、自己が移動するための動作の計画を
立てる移動・動作計画部である。符号24は、自己の腕
を動かすための制御を指示する腕動作指示部である。符
号Dは、自己の運動を制御する運動制御部であり、カメ
ラ・首制御部25、脚の制御を行う移動制御部26、腕
制御部27、及び外部から動作の指示を受信する無線装
置28からなる。運動制御部Dでは、腕制御情報に基づ
いて腕を指定した位置に動かすことが可能であり、予め
プログラムされた動作パターンの選択、実施が可能であ
る。また、行動計画部Cより周囲の人の位置や音声応答
に応じた身振りの指示を発生させ、ロボット自身の身振
りにより注目度を向上させるために手を振るなどの動作
を行う。
Reference numeral C is an action planning section, and reference numeral 20
Is a human response instructing unit that responds to humans. Reference numeral 21 is a movement instructing unit for instructing control for its own movement. Reference numeral 22 is a line-of-sight instructing unit that instructs the control for moving the line of sight of the user. Reference numeral 23 is a movement / motion planning unit that makes a motion plan based on the global map G. Reference numeral 24 is an arm operation instructing unit that instructs control for moving one's own arm. Reference numeral D is a motion control unit that controls its own motion, and includes a camera / neck control unit 25, a movement control unit 26 that controls legs, an arm control unit 27, and a wireless device 28 that receives an operation instruction from the outside. Consists of. The motion control unit D can move the arm to a designated position based on the arm control information, and can select and execute a pre-programmed motion pattern. In addition, the action planning unit C generates a gesture instruction according to the positions of surrounding people and a voice response, and performs an operation such as waving to improve the attention degree by the gesture of the robot itself.

【0016】符号Eは、外部情報表示部であり、インタ
ーネット3に接続される情報提供サーバ4〜6から送信
される広告の情報を受信する無線装置29とインターネ
ット3に接続して情報の授受を行うネットワーク接続用
コンピュータ(以下、コンピュータと称する)からな
る。符号Fは、情報提供サーバ4〜6から提供された情
報を表示する情報表示装置であり、表示するホームペー
ジに音声または、音楽が含まれる場合は、スピーカーよ
り再生する。この情報表示装置Fは、ロボット1が有す
る可動の手及び腕によって携行される。なお、情報表示
装置Fは、ロボット1の胸などの位置に埋め込まれてい
てもよい。符号Hは、カメラ・首、脚、腕、手等の可動
部を動かす運動機構部である。
Reference numeral E is an external information display unit, which is connected to the wireless device 29 for receiving advertisement information transmitted from the information providing servers 4 to 6 connected to the Internet 3 and connected to the Internet 3 to exchange information. It is composed of a computer for network connection (hereinafter, referred to as a computer). Reference symbol F is an information display device that displays information provided by the information providing servers 4 to 6, and if the home page to be displayed includes voice or music, it is played back by a speaker. The information display device F is carried by the movable hand and arm of the robot 1. The information display device F may be embedded in a position such as the chest of the robot 1. Reference numeral H is a motion mechanism that moves movable parts such as the camera, neck, legs, arms, and hands.

【0017】次に、図2に示すロボット1の動作を説明
する。初めに、図3を参照して、グローバルマップGを
参照しながら自律移動する動作について説明する。ここ
で、図4を参照してグローバルマップGのテーブル構成
を説明する。グローバルマップGは、順番号、X座標、
Y座標、及び停留時間のフィールドを有している。この
4つのフィールドからなる1レコードは、最終目的地
(ゴール)まで移動するときの中継点(これをサブゴー
ルという)を定義したものである。したがって、順番号
を昇順に辿ることによって最終目的地へ到達することが
可能である。まず、移動・動作計画部23は無線装置2
8を介して、移動開始のコマンドを受信する(ステップ
S1)。これを受けて、移動・動作計画部23は、移動
先の位置(サブゴール)の座標値をグローバルマップG
から読み込む(ステップS2)。そして、移動・動作計
画部23は、グローバルマップGのテーブルを全て読み
込んだか否かによってテーブルが終了したか否かを判定
する(ステップS3)。この判定の結果、テーブルが終
了していれば移動の処理を終了する。
Next, the operation of the robot 1 shown in FIG. 2 will be described. First, with reference to FIG. 3, an operation of autonomously moving with reference to the global map G will be described. Here, the table structure of the global map G will be described with reference to FIG. Global map G has a sequential number, an X coordinate,
It has Y-coordinate and dwell time fields. One record consisting of these four fields defines a relay point (this is called a subgoal) when moving to the final destination (goal). Therefore, it is possible to reach the final destination by tracing the sequence numbers in ascending order. First, the movement / operation planning unit 23 sets the wireless device 2
A movement start command is received via 8 (step S1). In response to this, the movement / motion planning unit 23 sets the coordinate values of the movement destination position (subgoal) to the global map G.
Is read from (step S2). Then, the movement / motion planning unit 23 determines whether or not the table has been completed depending on whether or not all the tables of the global map G have been read (step S3). If the result of this determination is that the table has ended, the movement processing ends.

【0018】次に、テーブルが終了していなければ、移
動・動作計画部23は、自己の現在位置を読み込む(ス
テップS4)。そして、移動・動作計画部23は、サブ
ゴールの座標値と現在位置の座標値とを比較して、サブ
ゴールに到達したかを判定する(ステップS5)。この
判定の結果、サブゴールに到達していれば、移動・動作
計画部23は、グローバルマップGから読み込んだ停留
時間が「0」であるかを判定する(ステップS6)。こ
の判定の結果、停留時間が「0」でなければ、移動・動
作計画部23は、読み込まれた停留時間だけ停留するよ
うに運動制御部Dに対して停止コマンドを送信する(ス
テップS7)。これを受けて、運動制御部Dは、指定さ
れた停留時間だけ待機する(ステップS8)。そして、
停留時間だけ待機したのち、ステップS2へ戻り、処理
を繰り返す。
Next, if the table is not completed, the movement / motion planning unit 23 reads its own current position (step S4). Then, the movement / motion planning unit 23 compares the coordinate value of the subgoal with the coordinate value of the current position to determine whether the subgoal is reached (step S5). If the result of this determination is that the subgoal has been reached, the movement / motion planning unit 23 determines whether or not the dwell time read from the global map G is "0" (step S6). If the stop time is not “0” as a result of this determination, the movement / motion planning unit 23 transmits a stop command to the motion control unit D so as to stop for the read stop time (step S7). In response to this, the motion control unit D waits for the designated dwell time (step S8). And
After waiting for the dwell time, the process returns to step S2 and the process is repeated.

【0019】一方、ステップS5において、サブゴール
に到達していなければ、移動・動作計画部23は、サブ
ゴールの座標値と自己の座標値とを移動指示部21へ通
知する。これを受けて、移動指示部21は、自己の現在
位置からサブゴールの位置との相対角が0で、サブゴー
ルまでの距離が0になるように、差分を計算する(ステ
ップS9)。そして、計算した差分を制御指令値とし
て、運動制御部Dへ送信する(ステップS10)。これ
によって、運動制御部Dは、制御指令値に基づいて移動
を開始し、サブゴールに到達するまで処理を繰り返す。
なお、グローバルマップGに基づく定位置間移動は、最
終のサブゴールに到達した時点で、グローバルマップG
に定義されているサブゴールを逆に辿って出発点にもど
るようにしてもよい。さらには、特定箇所を数点推定し
てそこを巡回するようにしてもよい。
On the other hand, in step S5, if the sub-goal has not been reached, the movement / motion planning unit 23 notifies the movement instruction unit 21 of the coordinate values of the sub-goal and its own coordinate value. In response to this, the movement instructing unit 21 calculates the difference so that the relative angle from the present position of the self to the position of the subgoal is 0, and the distance to the subgoal is 0 (step S9). Then, the calculated difference is transmitted as a control command value to the motion control unit D (step S10). Thereby, the motion control unit D starts moving based on the control command value and repeats the process until reaching the subgoal.
Note that the movement between fixed positions based on the global map G is performed when the final subgoal is reached.
The subgoal defined in can be traced back to the starting point. Further, it is also possible to estimate a certain number of specific points and visit them.

【0020】次に、図5を参照して、ロボット1が携行
している情報表示装置Fに広告情報を表示する動作を説
明する。まず、配信管理サーバ8は、タイムテーブル9
の内容を読み込み、インターネット3、基地局7を介し
てロボット1へタイムテーブルの内容を送信する。これ
を無線装置29によって受信し、コンピュータ30に記
憶することによってタイムテーブルをセットする(ステ
ップS11)。ここでコンピュータ30にセットされる
タイムテーブルの内容を図6を参照して説明する。タイ
ムテーブルの1レコードは、「開始時刻」、「終了時
刻」、「URL(Uniform Resource Locators)」から
構成されており、このレコードが複数記憶されている。
このタイムテーブルは、開始時刻から終了時刻までの間
において、表示するホームページのURLが定義されて
いるものである。
Next, the operation of displaying the advertisement information on the information display device F carried by the robot 1 will be described with reference to FIG. First, the delivery management server 8 uses the timetable 9
The content of the timetable is transmitted to the robot 1 via the Internet 3 and the base station 7. This is received by the wireless device 29 and stored in the computer 30 to set the time table (step S11). Here, the contents of the timetable set in the computer 30 will be described with reference to FIG. One record of the timetable is composed of "start time", "end time", and "URL (Uniform Resource Locators)", and a plurality of these records are stored.
In this timetable, the URL of the home page to be displayed is defined from the start time to the end time.

【0021】次に、コンピュータ30は、内部に記憶さ
れたタイムテーブルを1レコード読み込む(ステップS
12)。そして、タイムテーブルが終了であるか否かを
判定し(ステップS13)、テーブル終了であれば、処
理を終了する。一方、テーブルが終了でなければ、コン
ピュータ30は、時刻を監視して(ステップS14)、
終了時刻を過ぎるまで(ステップS15)、情報提供サ
ーバ4〜6に対してアクセスして広告の内容を情報表示
装置Fへ表示する(ステップS16)。ここで表示する
広告は、タイムテーブルに記憶されたURLで特定され
るホームページの内容である。そして、終了時刻になっ
た時点で、再びタイムテーブルを読み込み、新たな広告
内容を表示する。
Next, the computer 30 reads one record of the internally stored time table (step S
12). Then, it is determined whether or not the time table is finished (step S13), and if the table is finished, the process is finished. On the other hand, if the table is not finished, the computer 30 monitors the time (step S14),
Until the end time has passed (step S15), the content of the advertisement is displayed on the information display device F by accessing the information providing servers 4 to 6 (step S16). The advertisement displayed here is the content of the home page specified by the URL stored in the timetable. Then, when the end time is reached, the timetable is read again and new advertisement contents are displayed.

【0022】このように、タイムテーブル9に定義され
た開始・終了時刻に基づいて、ホームページの内容を所
定の時間内において表示することが可能となるため、前
述した移動動作と並行して処理を実行するようにすれ
ば、自律移動する広告ロボットとすることができる。な
お、タイムテーブル9は、予めコンピュータ30内に記
憶されていてもよい。
In this way, the contents of the home page can be displayed within a predetermined time based on the start / end times defined in the timetable 9, so that the processing can be performed in parallel with the above-mentioned movement operation. If it is executed, the advertising robot can move autonomously. The timetable 9 may be stored in the computer 30 in advance.

【0023】次に、図7を参照して、自己の周囲に存在
する人間を発見してそこへ移動する動作を説明する。ま
ず、移動・動作計画部23は、繰り返しループの初期値
を設定する(ステップS21)。ここでは旋回パターン
数だけ処理を繰り返す。続いて、移動・動作計画部23
は、カメラ、首制御部25に対して旋回角度を指定して
首を旋回させる(ステップS22)。そして、ステレオ
処理部11はカメラ10で撮像した画像を取り込む(ス
テップS23)。ステレオ処理部11は、画像処理によ
り距離画像を抽出し、距離毎に画素を地面方向に仮定し
たグリッド面を投影する。このグリッド面の格子サイズ
は例えば5cmとする。このグリッド面は得られた画像
のフレーム単位に更新する。
Next, with reference to FIG. 7, an operation of finding a person existing around himself and moving to it will be described. First, the movement / motion planning unit 23 sets an initial value of a repeating loop (step S21). Here, the processing is repeated for the number of turning patterns. Subsequently, the movement / motion planning unit 23
Turns the neck by designating the turning angle to the camera / neck control unit 25 (step S22). Then, the stereo processing unit 11 captures the image captured by the camera 10 (step S23). The stereo processing unit 11 extracts a distance image by image processing and projects a grid plane assuming pixels in the ground direction for each distance. The grid size of this grid surface is, for example, 5 cm. This grid plane is updated for each frame of the obtained image.

【0024】次に、ローカルマップを作成する(ステッ
プS24)。このローカルマップは、先に得られたグリ
ッド面を投影した画像から、オブジェクト幅、オブジェ
クトの重心位置、自己からオブジェクトまでの距離及び
相対方位を求めたものである。続いて、グリッドの4近
傍の連結性を調べることにより、一塊のオブジェクトを
求める(ステップS25)。
Next, a local map is created (step S24). This local map is obtained from the previously projected image of the grid plane, the object width, the position of the center of gravity of the object, the distance from itself to the object, and the relative orientation. Then, a block of objects is obtained by examining the connectivity in the four neighborhoods of the grid (step S25).

【0025】次に、一塊のオブジェクトの総数を繰り返
しループの初期値とする。そして、オブジェクト領域内
において、肌色画素位置の積和と重心を計算する(ステ
ップS27)。このステップS27の処理は、オブジェ
クト総数だけ繰り返し実行し、ステップS22〜S27
の処理を旋回パターン数だけ繰り返し実行する。そし
て、ステップS27までの処理が終了した時点で、カメ
ラ部分の旋回によって得られたオブジェクト毎の肌色画
素総数の最も多いオブジェクトでかつ重心位置が所定高
さ(例えば、120cm)以上にあり、かつそのオブジ
ェクトまでの距離が所定距離(例えば、5m)以内なら
ば、そこまで移動する(ステップS28、S29)。
Next, the total number of objects in one block is set as the initial value of the iteration loop. Then, in the object area, the sum of products of the skin color pixel positions and the center of gravity are calculated (step S27). The process of step S27 is repeatedly executed for the total number of objects, and steps S22 to S27 are performed.
The above process is repeatedly executed for the number of turning patterns. Then, when the processing up to step S27 is completed, the object having the largest total number of skin color pixels for each object obtained by the turning of the camera part, and the position of the center of gravity thereof is equal to or higher than a predetermined height (for example, 120 cm), and If the distance to the object is within a predetermined distance (for example, 5 m), the object is moved to that distance (steps S28 and S29).

【0026】このように、人間が多くいる場所の発見
は、カメラ部分を左、正面、右、もしくは、右、正面、
左の順にカメラ視野角と同等角分を旋回し、その都度ロ
ーカルマップを更新し、視野境界をまたがるオブジェク
トは、一塊りとする処理を行う。そして、オブジェクト
の横幅に対応する画像上の画素をスキャンして肌色の画
素数を積算するとともに、それらの画素の座標を積算
し、オブジェクトの重心を求める。これらの処理を行っ
た後に、カメラ部分の旋回によって得られたオブジェク
ト毎の肌色画素総数の最も多いオブジェクトでかつ重心
位置が所定高さにあり、かつそのオブジェクトまでの距
離が所定距離内ならば、そこまで移動することによっ
て、人間がより多く存在する場所へ接近することが可能
となる。
As described above, when finding a place where there are many humans, the camera portion is left, front, right, or right, front,
The left view is turned in the same angle as the camera view angle, the local map is updated each time, and the objects that cross the view boundary are processed as a lump. Then, the pixels on the image corresponding to the width of the object are scanned to integrate the number of pixels of skin color, and the coordinates of these pixels are integrated to obtain the center of gravity of the object. After performing these processes, if the object with the largest total number of flesh color pixels for each object obtained by turning the camera part and the center of gravity position is at a predetermined height, and the distance to that object is within a predetermined distance, By moving there, it becomes possible to approach the places where more humans exist.

【0027】次に、進路上の障害を検出しながら移動す
る動作を説明する。進路上の障害を検出しながら移動す
る際においても前述した人間を発見してそこまで移動す
る処理と同様であり、異なる点は、存在するオブジェク
トまでの相対方向と距離を求め、その距離と相対方向が
一定になるように運動制御部Dへ指令値を渡して、視野
内にあるオブジェクトと衝突せずに移動するようにする
ことである。また、視野外へ出る静止オブジェクト位置
を自己の動きに基づいて仮想的に位置を更新することに
よって、ロボット全周囲のオブジェクト有無パターンを
得るようにして、より安全な移動を可能とする。
Next, the operation of moving while detecting an obstacle on the route will be described. When moving while detecting obstacles on the path, it is similar to the process of finding a human and moving to it as described above.The difference is that the relative direction and distance to the existing object are calculated and the distance and relative This is to pass a command value to the motion control unit D so that the direction is constant, and to move without colliding with an object in the visual field. Further, the position of the stationary object that goes out of the field of view is updated virtually based on the movement of the stationary object to obtain the object presence / absence pattern around the entire robot, thereby enabling safer movement.

【0028】なお、衝突回避経路生成部15は、視野角
分割内にあるオブジェクトの有無パターンに応じて、予
め設定されたロボットの旋回角によってもよいし、予め
シミュレータでシミュレーションして学習した結果を用
いるようにしてもよい。また、前述した説明において
は、ステレオ画像から距離画像を求めるようにしたが、
全周囲に超音波センサなどの測距装置を備え、この測距
装置を用いても前述した処理を同様に実現するようにし
てもよい。
The collision avoidance route generation unit 15 may use the preset turning angle of the robot according to the presence / absence pattern of the object within the viewing angle division, or the result learned by simulating with a simulator in advance. You may use it. Further, in the above description, the distance image is obtained from the stereo image,
A range finder such as an ultrasonic sensor may be provided all around and the range finder may be used to similarly implement the above-described processing.

【0029】このように、グローバルマップGより得た
所定ルートの移動中に、適当な時間間隔(例えば、3
分)おきにロボット1はカメラ部分を旋回させて、人が
最も多くいると推定される場所を発見して、所定距離
(例えば5m)以内にその場所があればその直前まで接
近して、広告を提示することができる。また、広告提示
場所まで移動する際においても同様の処理によって障害
を回避しながら移動することが可能となる。
As described above, during the movement of the predetermined route obtained from the global map G, an appropriate time interval (for example, 3
Every minute), the robot 1 turns the camera part to find a place where it is estimated that the number of people is the most, and if there is a place within a predetermined distance (for example, 5 m), it approaches until just before that, Can be presented. Also, when moving to the advertisement presentation place, it is possible to move while avoiding obstacles by the same processing.

【0030】次に、自己の進路上に人間が停止して存在
している場合の動作を説明する。まず、顔検出部13お
よび移動体抽出部12により、オブジェクトの上端部よ
り画像を走査し、顔の色をもとに顔部分の領域を求め、
その重心を顔の候補位置をとし、画像上の画素位置を、
視線指示部22と人応答指示部20ヘ送る。また、移動
体抽出部12はスネーク手法などにより移動体の輸郭情
報を求めその輪郭の再上端部を基準とした矩形領域の中
心を顔の候補とし、画像上の画素位置を、視線指示部2
2と人応答指示部20ヘ送る。
Next, the operation when a person is stopped and present on his or her path will be described. First, the face detection unit 13 and the moving body extraction unit 12 scan the image from the upper end of the object to obtain the face portion region based on the face color,
The center of gravity is used as the candidate position of the face, and the pixel position on the image is
It is sent to the line-of-sight instruction unit 22 and the human response instruction unit 20. In addition, the moving body extraction unit 12 obtains the contour information of the moving body by a snake method or the like, sets the center of a rectangular area with the upper end portion of the contour as a reference, and determines the pixel position on the image to be the pixel position on the image. Two
2 and the person response instructing section 20.

【0031】視線指示部22は、顔検出の結果による顔
候補位置と移動体抽出部12による顔候補位置が同時に
求められた場合は、その平均を顔位置とし、どちらかの
場合は、求まっている顔位置より、視線制御値を求め、
カメラ・首制御部25に送る。カメラ・首制御部25
は、カメラ10のパン方向、チルト方向を与えられた視
線制御値に基づいて制御する。これにより対面した人間
の顔を注視することになり、対面した人自身がロボット
の存在を意識するとともに広告への注目度が向上する。
さらに、ロボットのこれからの行動を周囲の人に対して
伝えることがより確実になる。例えば、「前に進みま
す。申し訳ありませんが、前を空けて下さい。」という
ような音声を音声合成部18によって生成して、スピー
カ16から発声する。
When the face candidate position as a result of face detection and the face candidate position by the moving body extracting unit 12 are obtained at the same time, the line-of-sight instructing unit 22 determines the average as the face position. Find the line-of-sight control value from the face position,
Send to the camera / neck controller 25. Camera / neck controller 25
Controls the pan direction and the tilt direction of the camera 10 based on the given line-of-sight control value. As a result, the face of the human being faced is closely watched, the person himself facing is aware of the existence of the robot, and the degree of attention to the advertisement is improved.
Furthermore, it becomes more reliable to convey the future action of the robot to the surrounding people. For example, the voice synthesizing unit 18 generates a voice such as “Proceed to the front. Sorry, please leave the front.”, And the speaker 16 utters the voice.

【0032】人応答指示部20は、オブジェクトを発見
してからの時間を計測し、ある閾値(例えば5秒間)の
時間、音声認識部19からのデータの送信が無い場合
は、移動指示部21に対して、障害物回避を指示する。
音声データが入った場合は、移動指示部21ヘ停止した
ままでいることを指示する。さらに長い時間進路が塞が
れていた場合は、無線装置18を介して基地局2へ通知
し、オペレータを呼ぶ。オペレータの介在により、初期
プランの変更を行う。このように、ある時間の間、進路
上に人間らしいオブジェクトが停止して存在する場合
は、音声合成によって、進路を開けてくれるように依頼
し、進路が開いたら前進することによって安全に進路上
を進行することができる。
The human response instructing section 20 measures the time after the object is found, and if there is no data transmitted from the voice recognizing section 19 for a certain threshold time (for example, 5 seconds), the movement instructing section 21. Instruct to avoid obstacles.
When the voice data is input, the movement instructing unit 21 is instructed to remain stopped. If the route is blocked for a longer time, the base station 2 is notified via the wireless device 18, and the operator is called. The initial plan is changed by the intervention of the operator. In this way, if a human-like object stops and exists on the path for a certain period of time, it is requested by voice synthesis to open the path, and when the path opens, the robot moves forward safely by moving forward. You can proceed.

【0033】以上説明したように、街中の人が集まる場
所にて、人型をしたロボットが広告を表示することによ
り宣伝効果がより一層高めることができる。また、ロボ
ット本体に搭載したコンピュータ30から直接、無線装
置29を介してインターネット3に接続するようにした
ため、表示内容を自由に選択することが可能である。ま
た、ロボット1の移動機構を脚式とすることで、階段の
あるところや不整路面での活動が可能となり、さらに
は、空港内、電車内、スタジアム、劇場内での案内も可
能となる。また、ホームぺージの表示により直接的に限
定された場所の案内等も可能である。
As described above, the advertisement effect can be further enhanced by displaying the advertisement by the humanoid robot in the place where the people gather in the city. Further, since the computer 30 mounted on the robot main body is directly connected to the Internet 3 via the wireless device 29, the display content can be freely selected. Further, by making the movement mechanism of the robot 1 leg-type, it becomes possible to perform activities on a place with stairs or on an irregular road surface, and further it is possible to provide guidance in an airport, a train, a stadium, or a theater. In addition, it is possible to display information on a limited place directly by displaying the home page.

【0034】また、定位置に置かれたコンピュータで
は、インターネットのホームぺージはそこを見ようとし
た人しか広告を見ることがないが、本発明による自律移
動ロボットは、不特定多数の人に対してホームぺージを
提示することができ、かつ、公衆が多く行き交う場所に
て広告を提示することができる。
Further, with a computer placed at a fixed position, the home page of the Internet can see advertisements only by the person trying to see it, but the autonomous mobile robot according to the present invention can be used by an unspecified number of people. It is possible to present a home page on the Internet and to present an advertisement at a place where many publics come and go.

【0035】また、広告を見た人からの問い合わせや懸
賞の当たる広告は、問い合せ先を提示することで、その
場で個人情報を収集できるなど、タイムリーな情報の収
集も可能となる。例えば、「今このCMを見て興味ある
方は今すぐ○○にお電話を下さい」というテロップを表
示することにより、携帯電話等を使用してすぐに問い合
せすることが可能となり、企業広告の迅速な普及とレス
ポンスがはぼ同時にできる。
Further, regarding the advertisement from the person who saw the advertisement or the advertisement to which the prize is awarded, by presenting the inquiry destination, the personal information can be collected on the spot and the timely information can be collected. For example, by displaying the telop "If you are interested in seeing this CM right now, please call XX now", you can immediately make inquiries using your mobile phone, etc. Prompt dissemination and response are possible at the same time.

【0036】また、クイズの実施をオンラインで行い、
携帯電話によるエントリとその結果の当選者へのお知ら
せをその場で可能とすることで、従来の新聞、雑誌など
へのクイズ広告のように当選、発表までの手間と時間を
大幅に短縮することがきる。また、携帯電話によるホー
ムぺージ検索は携帯電話の表示面積に制限があり、一度
に多くの情報を表示することができないため、グループ
などの複数人が同一のホームぺージを見ることは困難で
あるが、本発明による自律移動ロボットが身近にいる場
合には、専用アクセスコード等の入力を携帯電話から行
い、携帯電話を掛ける人とロボット間を連結するシステ
ムにより、ロボットが表示したホームぺージに対して携
帯電話を用いて応答できることで楽しく、かつ多くの情
報を複数の人が同時に見ることが可能となる。また、緊
急なニュース等は配信管理サーバにてニュースを伝える
ホームページを挿入し、従来のタイムテーブルの予定を
その場で変更することもできる。
In addition, a quiz is conducted online,
By enabling entry via mobile phone and notification of the results to the winners on the spot, it is possible to greatly reduce the time and time required to win and announce, as in conventional quiz advertisements for newspapers, magazines, etc. I'm dying. Also, home page search by mobile phone is limited in the display area of the mobile phone and cannot display a lot of information at a time, so it is difficult for multiple people such as a group to see the same home page. However, when the autonomous mobile robot according to the present invention is in close proximity, the home page displayed by the robot is displayed by the system for connecting the person who calls the mobile phone and the robot by inputting the dedicated access code or the like from the mobile phone. Being able to respond to this by using a mobile phone makes it fun and allows multiple people to see a lot of information at the same time. Also, for urgent news, etc., a delivery management server can insert a home page to convey the news and change the schedule of the conventional timetable on the spot.

【0037】さらに、街中で配布する新聞の号外に換え
て、自律移動ロボットの情報表示装置Fに号外の内容を
表示することで、号外を配布するよりも早く情報の伝達
が可能であり、不特定多数の人が同時にその情報を受け
ることができかつ、注意力を引き付け易くすることも可
能である。
Furthermore, by displaying the contents of the extra on the information display device F of the autonomous mobile robot in place of the extra of the newspaper distributed in the city, it is possible to transmit information faster than the extra is distributed, and It is also possible that a specific large number of people can receive the information at the same time and easily attract attention.

【0038】従来の移動式ロボットは遠隔操縦装置等で
オペレータが動きなどを操作していたが、ロボット自身
に備えられた画像認識部Aにより周囲の人や障害物を検
知し、行動計画部Cにより自己の動きを制御すること
で、オペレータの操作の負担が軽減するため、オペレー
タは、他の操作を余裕を持って実施することが可能とな
る。
In a conventional mobile robot, an operator operates movements by a remote control device or the like, but an image recognition unit A provided in the robot itself detects a person or an obstacle in the surroundings, and an action planning unit C. By controlling the movement of the operator, the operator's operation load is reduced, so that the operator can perform other operations with a margin.

【0039】また、顔検出部13により人間の顔を効率
よく検出することが可能となるため、目前に来た物体が
人であるかを判断することができ、適切な行動を実施す
ることできるので、人に対するサービスや宣伝を効果的
に実施することが可能となる。また、移動体抽出部12
により移動物体の動く方向を予測することができるた
め、衝突を未然に防ぐことが可能である。また、顔検
出、移動体検出、及び音声認識等の複合的な評価によっ
て人と判断することによって、より適切な衝突の回避、
あるいは、行動プランの変更が可能である。例えば、顔
位置が推定できた場合には、音声によって自己の進路を
周囲の人に知らせることができる。または、進路を開け
て頂くように依頼すること等が可能となる。
Further, since the human face can be efficiently detected by the face detecting section 13, it can be judged whether or not the object coming in front is a human being, and an appropriate action can be taken. Therefore, it becomes possible to effectively carry out services and advertisements for people. In addition, the moving body extraction unit 12
Since it is possible to predict the moving direction of the moving object, it is possible to prevent a collision in advance. In addition, more appropriate collision avoidance can be achieved by determining a person by a composite evaluation such as face detection, moving object detection, and voice recognition.
Alternatively, the action plan can be changed. For example, when the face position can be estimated, it is possible to inform surrounding people of the course of the person by voice. Alternatively, it is possible to request that the course be opened.

【0040】なお、図1、2における各処理部の機能を
実現するためのプログラムをコンピュータ読み取り可能
な記録媒体に記録して、この記録媒体に記録されたプロ
グラムをコンピュータシステムに読み込ませ、実行する
ことによりロボットの自律移動処理を行ってもよい。な
お、ここでいう「コンピュータシステム」とは、OSや
周辺機器等のハードウェアを含むものとする。また、
「コンピュータシステム」は、WWWシステムを利用し
ている場合であれば、ホームページ提供環境(あるいは
表示環境)も含むものとする。また、「コンピュータ読
み取り可能な記録媒体」とは、フレキシブルディスク、
光磁気ディスク、ROM、CD−ROM等の可搬媒体、
コンピュータシステムに内蔵されるハードディスク等の
記憶装置のことをいう。さらに「コンピュータ読み取り
可能な記録媒体」とは、インターネット等のネットワー
クや電話回線等の通信回線を介してプログラムが送信さ
れた場合のサーバやクライアントとなるコンピュータシ
ステム内部の揮発性メモリ(RAM)のように、一定時
間プログラムを保持しているものも含むものとする。
It should be noted that a program for realizing the function of each processing unit in FIGS. 1 and 2 is recorded in a computer-readable recording medium, and the program recorded in this recording medium is read into a computer system and executed. By doing so, autonomous movement processing of the robot may be performed. The “computer system” mentioned here includes an OS and hardware such as peripheral devices. Also,
The “computer system” also includes a homepage providing environment (or display environment) if a WWW system is used. The "computer-readable recording medium" means a flexible disk,
Portable media such as magneto-optical disk, ROM, CD-ROM,
A storage device such as a hard disk built in a computer system. Further, the "computer-readable recording medium" is a volatile memory (RAM) inside a computer system which serves as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those that hold the program for a certain period of time are also included.

【0041】また、上記プログラムは、このプログラム
を記憶装置等に格納したコンピュータシステムから、伝
送媒体を介して、あるいは、伝送媒体中の伝送波により
他のコンピュータシステムに伝送されてもよい。ここ
で、プログラムを伝送する「伝送媒体」は、インターネ
ット等のネットワーク(通信網)や電話回線等の通信回
線(通信線)のように情報を伝送する機能を有する媒体
のことをいう。また、上記プログラムは、前述した機能
の一部を実現するためのものであっても良い。さらに、
前述した機能をコンピュータシステムにすでに記録され
ているプログラムとの組み合わせで実現できるもの、い
わゆる差分ファイル(差分プログラム)であっても良
い。
Further, the program may be transmitted from a computer system that stores the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be a program for realizing some of the functions described above. further,
It may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

【0042】[0042]

【発明の効果】以上説明したように、請求項1に記載の
発明によれば、通信手段を介して情報提供サーバに蓄え
られている広告情報を読み出して、広告の内容を表示ま
たは発声するようにしたため、内容が豊富な広告を効率
良く行うことが可能になるという効果が得られる。
As described above, according to the invention described in claim 1, the advertisement information stored in the information providing server is read out through the communication means to display or speak the content of the advertisement. As a result, the effect that it becomes possible to efficiently carry out an advertisement with a rich content is obtained.

【0043】また、請求項2に記載の発明によれば、取
得した画像を解析することにより人間が存在するか否か
を判断し、この判断結果に基づいて、人間がより多く存
在する領域に移動するようにしたため、広告相手である
人間が存在する領域に自律的に移動し、効率良く広告を
行うことができるという効果が得られる。
According to the second aspect of the present invention, it is determined whether or not there are human beings by analyzing the acquired image, and based on the result of this determination, it is determined in the area where more humans are present. Since it is moved, it is possible to autonomously move to an area where a human being, which is an advertisement partner, exists, and it is possible to effectively advertise.

【0044】また、請求項3に記載の発明によれば、周
囲の人間の音声を認識して、認識した音声に応じて所定
の動作を行うことによって応答するようにしたため、周
囲の注目を集めて、広告の効果を増大することができる
という効果が得られる。
According to the third aspect of the invention, since the voice of the surrounding human beings is recognized and a response is made by performing a predetermined operation according to the recognized voice, the attention of the surroundings is gathered. As a result, it is possible to increase the effect of advertisement.

【0045】また、請求項4に記載の発明によれば、画
像解析結果に基づいて、対面する人間の位置を認識し、
この認識された人間の顔を注視するようにしたため、ロ
ボットの存在を強く印象づけるとともにロボット自身が
提示する広告効果が有効的に発揮されるという効果が得
られる。
Further, according to the invention described in claim 4, the position of the facing person is recognized based on the image analysis result,
By paying attention to the recognized human face, the presence of the robot is strongly impressed, and the advertising effect presented by the robot itself is effectively exhibited.

【0046】また、請求項5に記載の発明によれば、画
像解結果に基づいて、自己の移動予定方向に人間が存在
しているか否を判断し、移動予定方向に人間が存在する
場合に注意を促すようにしたため、移動にする際に障害
となる人間に対して移動を喚起して、ロボット自身の行
動を円滑にさせることができるという効果が得られる。
According to the invention described in claim 5, it is judged based on the image solution result whether or not a person is present in the planned movement direction, and when the person is present in the planned movement direction. Since the attention is urged, it is possible to obtain an effect that the movement of the robot itself can be smoothed by inviting the movement to a person who is an obstacle when moving.

【0047】また、請求項6に記載の発明によれば、ロ
ボットの行動範囲地図情報であるグローバルマップを備
えたため、このグローバルマップに定義された障害物の
位置、階段、玄関などの位置情報に基づいてロボット自
身の位置を正確に認識することができるという効果が得
られる。
According to the sixth aspect of the present invention, since the robot includes the global map which is the action range map information of the robot, the position information of the obstacle, the stairs, the entrance, etc. defined in the global map is used. Based on this, the effect that the position of the robot itself can be accurately recognized is obtained.

【0048】また、請求項7に記載の発明によれば、イ
ンターネットを介して広告すべき情報を取り入れること
により、一度に複数種類の情報を広告することができる
という効果が得られる。
According to the invention described in claim 7, it is possible to advertise a plurality of types of information at a time by incorporating the information to be advertised via the Internet.

【0049】また、請求項8に記載の発明によれば、人
間の形状をした脚式移動ロボットを利用することによ
り、周囲の人間に対して親近感を与えて、注目を集める
ことが可能となり、広告効果を増大することができると
いう効果が得られる。
Further, according to the invention described in claim 8, by using the legged mobile robot in the shape of a human being, it becomes possible to give a sense of familiarity to the human beings in the surroundings and attract attention. The effect that the advertising effect can be increased is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施形態の全体構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing an overall configuration of an embodiment of the present invention.

【図2】 図1に示すロボット1の構成を示すブロック
図である。
FIG. 2 is a block diagram showing the configuration of the robot 1 shown in FIG.

【図3】 ロボット1の自律移動動作を示すフローチャ
ートである。
FIG. 3 is a flowchart showing an autonomous movement operation of the robot 1.

【図4】 図2示すグローバルマップGのテーブル構造
を示す説明図である。
4 is an explanatory diagram showing a table structure of a global map G shown in FIG.

【図5】 図2に示す情報表示装置Fに広告情報を表示
する動作を示すフローチャートである。
5 is a flowchart showing an operation of displaying advertisement information on the information display device F shown in FIG.

【図6】 広告情報を表示する場合に参照されるタイム
テーブルのテーブル構造を示す説明図である。
FIG. 6 is an explanatory diagram showing a table structure of a time table referred to when displaying advertisement information.

【図7】 ロボット1の自律移動動作を示すフローチャ
ートである。
FIG. 7 is a flowchart showing an autonomous movement operation of the robot 1.

【符号の説明】[Explanation of symbols]

1・・・ロボット 2・・・基地局 3・・・インターネット 4〜6・・・情報提供サーバ 7・・・基地局 8・・・配信管理サーバ 9・・・タイムテーブル A・・・画像認識部 B・・・音声認識部 C・・・行動計画部 D・・・運動制御部 E・・・外部情報表示部 F・・・情報表示装置 G・・・グローバルマップ H・・・運動機構部 1 ... Robot 2 ... Base station 3 ... Internet 4-6 ... Information providing server 7 ... Base station 8 ... Delivery management server 9 ... Time table A: Image recognition unit B: Speech recognition unit C ... Action Planning Department D: Motion control unit E ... External information display F: Information display device G: Global map H: Movement mechanism section

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 予め決められた領域を自律的に移動して
広告を行う自律移動ロボットであって、 前記自律移動ロボットは、 外部に配置された情報提供サーバにアクセスするための
通信手段と、 前記広告の内容を表示または発声する広告手段と、 前記通信手段を介して前記情報提供サーバに蓄えられて
いる広告情報を読み出して前記広告手段に対して出力す
る制御手段とを備えたことを特徴とする自律移動ロボッ
ト。
1. An autonomous mobile robot that autonomously moves in a predetermined area to perform an advertisement, wherein the autonomous mobile robot has a communication means for accessing an information providing server arranged outside. An advertisement means for displaying or uttering the content of the advertisement, and a control means for reading out the advertisement information stored in the information providing server via the communication means and outputting the advertisement information to the advertisement means. And an autonomous mobile robot.
【請求項2】 前記自律移動ロボットは、 周囲の画像を取得する画像取得手段と、 前記画像を解析することにより人間が存在するか否かを
判断する画像解析手段と、 前記画像解析手段の判断結果に基づいて、人間がより多
く存在する領域に移動する行動計画手段と、 をさらに備えたことを特徴とする請求項1に記載の自律
移動ロボット。
2. The autonomous mobile robot includes: an image acquisition unit that acquires an image of a surrounding area; an image analysis unit that determines whether or not a human is present by analyzing the image; and a judgment of the image analysis unit. The autonomous mobile robot according to claim 1, further comprising: an action planning unit that moves to an area where more humans exist, based on the result.
【請求項3】 前記自律移動ロボットは、 周囲の人間の音声を認識する音声認識手段と、 前記音声に応じて所定の動作を行なう応答手段とをさら
に備えたことを特徴とする請求項1に記載の自律移動ロ
ボット。
3. The autonomous mobile robot further comprises voice recognition means for recognizing the voices of humans around it, and response means for performing a predetermined operation according to the voice. The autonomous mobile robot described.
【請求項4】 前記自律移動ロボットは、 前記画像解析手段の判断結果に基づいて、対面する人間
の位置を認識する位置認識手段と、 前記位置認識手段によって認識された人間の顔を注視す
る視線指示手段とをさらに備えたことを特徴とする請求
項2に記載の自律移動ロボット。
4. The autonomous mobile robot, based on the determination result of the image analysis means, a position recognition means for recognizing the position of a human being facing, and a line of sight for gazing at the human face recognized by the position recognition means. The autonomous mobile robot according to claim 2, further comprising an instruction unit.
【請求項5】 前記自律移動ロボットは、 前記画像解析手段の判断結果に基づいて、自己の移動予
定方向に人間が存在しているか否を判断し、移動予定方
向に人間が存在する場合に注意を促す喚起手段をさらに
備えたことを特徴とする請求項2に記載の自律移動ロボ
ット。
5. The autonomous mobile robot judges whether or not a person exists in the planned moving direction based on the judgment result of the image analysis means, and takes care when the human exists in the planned moving direction. The autonomous mobile robot according to claim 2, further comprising a stimulating means for urging the user.
【請求項6】 前記自律移動ロボットは、自己の行動範
囲が定義されたグローバルマップを備えたことを特徴と
する請求項2ないし5のいずれかに記載の自律移動ロボ
ット。
6. The autonomous mobile robot according to claim 2, wherein the autonomous mobile robot is provided with a global map in which an action range of the autonomous mobile robot is defined.
【請求項7】 前記情報提供サーバは、インターネット
に接続されたサーバであることを特徴とする請求項1な
いし6のいずれかに記載の自律移動ロボット。
7. The autonomous mobile robot according to claim 1, wherein the information providing server is a server connected to the Internet.
【請求項8】 前記自律移動ロボットは、人間型の脚式
二足歩行ロボットであることを特徴とする請求項1ない
し7のいずれかに記載の自律移動ロボット。
8. The autonomous mobile robot according to claim 1, wherein the autonomous mobile robot is a humanoid legged bipedal walking robot.
JP2001239156A 2001-08-07 2001-08-07 Autonomous mobile robot Expired - Lifetime JP4642287B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001239156A JP4642287B2 (en) 2001-08-07 2001-08-07 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001239156A JP4642287B2 (en) 2001-08-07 2001-08-07 Autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2003050559A true JP2003050559A (en) 2003-02-21
JP4642287B2 JP4642287B2 (en) 2011-03-02

Family

ID=19069954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001239156A Expired - Lifetime JP4642287B2 (en) 2001-08-07 2001-08-07 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP4642287B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006035381A (en) * 2004-07-28 2006-02-09 Honda Motor Co Ltd Control equipment for mobile robot
JP2007122304A (en) * 2005-10-27 2007-05-17 Hitachi Ltd Mobile robot
JP2007190641A (en) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International Communication robot
JP2007225941A (en) * 2006-02-24 2007-09-06 Fujitsu Ltd Robot
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
US7398136B2 (en) 2003-03-31 2008-07-08 Honda Motor Co., Ltd. Biped robot control system
US7467026B2 (en) 2003-09-22 2008-12-16 Honda Motor Co. Ltd. Autonomously moving robot management system
DE102008029693A1 (en) * 2008-06-24 2009-12-31 Karl-Heinz Bosch Spreading device for e.g. small article, for sign posting about new product in shopping centre, has advertisement device provided for spreading paper and/or small article, where transfer of paper and/or article is taken place via gripper
US8565923B2 (en) 2007-06-15 2013-10-22 Fujitsu Limited Robot
JP2015184384A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184333A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184351A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184376A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184335A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184350A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2016115257A (en) * 2014-12-17 2016-06-23 シャープ株式会社 Communication system, server device, robot, information processing method, and program
CN106393133A (en) * 2016-11-18 2017-02-15 盛江 High-attractiveness electrical safety propaganda robot
JP2017097207A (en) * 2015-11-26 2017-06-01 ロボットスタート株式会社 Robot advertisement system, robot, robot advertisement method and program
JP2018124718A (en) * 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
CN108573367A (en) * 2017-03-14 2018-09-25 富士施乐株式会社 Information providing apparatus and method and information providing system
JP2019067215A (en) * 2017-10-02 2019-04-25 ソフトバンク株式会社 Autonomous traveling apparatus, autonomous traveling system, and program
JP2020049648A (en) * 2018-09-26 2020-04-02 ディズニー エンタープライジーズ インコーポレイテッド Interactive autonomous robot configured for programmatic interpretation of social cues
WO2020262712A1 (en) * 2019-06-24 2020-12-30 엘지전자 주식회사 Image display method and mobile robot for implementing same
KR102288870B1 (en) * 2021-02-19 2021-08-12 주식회사 튠미디어 Advertising system using ai robot and server controlling ai robot
US11222283B2 (en) * 2018-10-23 2022-01-11 International Business Machines Corporation Hierarchical conversational policy learning for sales strategy planning
WO2024116271A1 (en) * 2022-11-29 2024-06-06 株式会社Fuji Automatic moving device, management device, conveyance system, and control method and management method of automatic moving device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754731A (en) * 2019-03-15 2019-05-14 廖祥菊 A kind of intelligence publicity navigating robot

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6344853Y2 (en) * 1983-12-21 1988-11-21
JPH0411591U (en) * 1990-05-21 1992-01-30
JPH05285868A (en) * 1992-04-15 1993-11-02 Honda Motor Co Ltd Walking control device for leg type moving robot
JPH09185412A (en) * 1995-12-28 1997-07-15 Yaskawa Electric Corp Autonomous moving device
JPH11149315A (en) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd Robot control system
JPH11259659A (en) * 1998-03-11 1999-09-24 Hokkaido Prefecture Environment map producing method by mobile robot
WO2000067959A1 (en) * 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2001121463A (en) * 1999-10-29 2001-05-08 Atr Media Integration & Communications Res Lab Intelligent robot
JP2001179666A (en) * 1999-12-28 2001-07-03 Namco Ltd Pet type robot and recording medium readable by computer with program recorded
JP2001188787A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2002288527A (en) * 2001-03-26 2002-10-04 Casio Comput Co Ltd Advertising terminal, advertising terminal processing program, advertisement management device, advertisement management method and advertisement management processing program

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6344853Y2 (en) * 1983-12-21 1988-11-21
JPH0411591U (en) * 1990-05-21 1992-01-30
JPH05285868A (en) * 1992-04-15 1993-11-02 Honda Motor Co Ltd Walking control device for leg type moving robot
JPH09185412A (en) * 1995-12-28 1997-07-15 Yaskawa Electric Corp Autonomous moving device
JPH11149315A (en) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd Robot control system
JPH11259659A (en) * 1998-03-11 1999-09-24 Hokkaido Prefecture Environment map producing method by mobile robot
WO2000067959A1 (en) * 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2001121463A (en) * 1999-10-29 2001-05-08 Atr Media Integration & Communications Res Lab Intelligent robot
JP2001179666A (en) * 1999-12-28 2001-07-03 Namco Ltd Pet type robot and recording medium readable by computer with program recorded
JP2001188787A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2002288527A (en) * 2001-03-26 2002-10-04 Casio Comput Co Ltd Advertising terminal, advertising terminal processing program, advertisement management device, advertisement management method and advertisement management processing program

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398136B2 (en) 2003-03-31 2008-07-08 Honda Motor Co., Ltd. Biped robot control system
US7467026B2 (en) 2003-09-22 2008-12-16 Honda Motor Co. Ltd. Autonomously moving robot management system
JP2006035381A (en) * 2004-07-28 2006-02-09 Honda Motor Co Ltd Control equipment for mobile robot
JP2007122304A (en) * 2005-10-27 2007-05-17 Hitachi Ltd Mobile robot
US8036775B2 (en) 2005-10-27 2011-10-11 Hitachi, Ltd. Obstacle avoidance system for a user guided mobile robot
JP2007190641A (en) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International Communication robot
JP2007225941A (en) * 2006-02-24 2007-09-06 Fujitsu Ltd Robot
JP2007276080A (en) * 2006-04-11 2007-10-25 Toyota Motor Corp Guide robot
JP4539600B2 (en) * 2006-04-11 2010-09-08 トヨタ自動車株式会社 Guide robot
US8565923B2 (en) 2007-06-15 2013-10-22 Fujitsu Limited Robot
DE102008029693A1 (en) * 2008-06-24 2009-12-31 Karl-Heinz Bosch Spreading device for e.g. small article, for sign posting about new product in shopping centre, has advertisement device provided for spreading paper and/or small article, where transfer of paper and/or article is taken place via gripper
JP2015184350A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184333A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184351A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184376A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184335A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
JP2015184384A (en) * 2014-03-20 2015-10-22 ヤフー株式会社 Movement control device, movement control method, and movement control system
US10453096B2 (en) 2014-03-20 2019-10-22 Yahoo Japan Corporation Movement controller, movement control method, and movement control system
JP2016115257A (en) * 2014-12-17 2016-06-23 シャープ株式会社 Communication system, server device, robot, information processing method, and program
JP2017097207A (en) * 2015-11-26 2017-06-01 ロボットスタート株式会社 Robot advertisement system, robot, robot advertisement method and program
CN106393133A (en) * 2016-11-18 2017-02-15 盛江 High-attractiveness electrical safety propaganda robot
JP2018124718A (en) * 2017-01-31 2018-08-09 イームズロボティクス株式会社 Proxy device, base station, proxy method and program
JP2018149645A (en) * 2017-03-14 2018-09-27 富士ゼロックス株式会社 Information providing device and information providing system
US10169340B2 (en) 2017-03-14 2019-01-01 Fuji Xerox Co., Ltd. Information providing apparatus and information providing system
CN108573367A (en) * 2017-03-14 2018-09-25 富士施乐株式会社 Information providing apparatus and method and information providing system
US10528543B2 (en) 2017-03-14 2020-01-07 Fuji Xerox Co., Ltd. Information providing apparatus and information providing system
JP2019067215A (en) * 2017-10-02 2019-04-25 ソフトバンク株式会社 Autonomous traveling apparatus, autonomous traveling system, and program
JP2020049648A (en) * 2018-09-26 2020-04-02 ディズニー エンタープライジーズ インコーポレイテッド Interactive autonomous robot configured for programmatic interpretation of social cues
US11890747B2 (en) 2018-09-26 2024-02-06 Disney Enterprises, Inc. Interactive autonomous robot configured with in-character safety response protocols
US11222283B2 (en) * 2018-10-23 2022-01-11 International Business Machines Corporation Hierarchical conversational policy learning for sales strategy planning
WO2020262712A1 (en) * 2019-06-24 2020-12-30 엘지전자 주식회사 Image display method and mobile robot for implementing same
US11070870B2 (en) 2019-06-24 2021-07-20 Lg Electronics Inc. Method for displaying image and mobile robot implementing same
KR102288870B1 (en) * 2021-02-19 2021-08-12 주식회사 튠미디어 Advertising system using ai robot and server controlling ai robot
WO2024116271A1 (en) * 2022-11-29 2024-06-06 株式会社Fuji Automatic moving device, management device, conveyance system, and control method and management method of automatic moving device

Also Published As

Publication number Publication date
JP4642287B2 (en) 2011-03-02

Similar Documents

Publication Publication Date Title
JP4642287B2 (en) Autonomous mobile robot
US10152719B2 (en) Virtual photorealistic digital actor system for remote service of customers
Tapu et al. Wearable assistive devices for visually impaired: A state of the art survey
US10362429B2 (en) Systems and methods for generating spatial sound information relevant to real-world environments
US9796093B2 (en) Customer service robot and related systems and methods
Saha et al. Closing the gap: Designing for the last-few-meters wayfinding problem for people with visual impairments
RU2706462C2 (en) Easier interaction between users and their environment using headset having input mechanisms
JP4976903B2 (en) robot
KR101983852B1 (en) System for providing exhibition service based on exhibition space analysis considering visitor's viewpoint
Terven et al. New opportunities for computer vision-based assistive technology systems for the visually impaired
Manduchi et al. (Computer) vision without sight
JP2007152442A (en) Robot guiding system
Rajendran et al. Design and implementation of voice assisted smart glasses for visually impaired people using google vision api
CN107643084A (en) Data object information, real scene navigation method and device are provided
Baranski et al. Field trials of a teleassistance system for the visually impaired
JP6500139B1 (en) Visual support device
CN116520982B (en) Virtual character switching method and system based on multi-mode data
JP2004024305A (en) Autonomous driving type support device, and program
WO2020188626A1 (en) Vision assistance device
JP7273638B2 (en) ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM
CN112989895A (en) Man-machine interaction method and system and self-moving equipment
US11994875B2 (en) Control device, control method, and control system
US20220297308A1 (en) Control device, control method, and control system
Zhang Wonder Vision-A Hybrid Way-finding System to assist people with Visual Impairment
JP7273637B2 (en) ROBOT MANAGEMENT DEVICE, ROBOT MANAGEMENT METHOD AND ROBOT MANAGEMENT SYSTEM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101201

R150 Certificate of patent or registration of utility model

Ref document number: 4642287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131210

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term