JP3210649B2 - Autonomous mobile robot - Google Patents

Autonomous mobile robot

Info

Publication number
JP3210649B2
JP3210649B2 JP31176299A JP31176299A JP3210649B2 JP 3210649 B2 JP3210649 B2 JP 3210649B2 JP 31176299 A JP31176299 A JP 31176299A JP 31176299 A JP31176299 A JP 31176299A JP 3210649 B2 JP3210649 B2 JP 3210649B2
Authority
JP
Japan
Prior art keywords
human
robot
orientation
skin color
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31176299A
Other languages
Japanese (ja)
Other versions
JP2001129777A (en
Inventor
倫太 今井
哲雄 小野
司郎 高田
浩 石黒
竜一 西村
春生 野間
敏昭 杉原
勉 宮里
良平 中津
Original Assignee
株式会社エイ・ティ・アール知能映像通信研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール知能映像通信研究所 filed Critical 株式会社エイ・ティ・アール知能映像通信研究所
Priority to JP31176299A priority Critical patent/JP3210649B2/en
Publication of JP2001129777A publication Critical patent/JP2001129777A/en
Application granted granted Critical
Publication of JP3210649B2 publication Critical patent/JP3210649B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、自律移動ロボットに
関し、特にたとえば、展示会場の案内ロボットや警備ロ
ボットなどに適用され、周囲の人間の向きを判定する、
新規な自律移動ロボットに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous mobile robot, and more particularly to, for example, a guide robot or a security robot in an exhibition hall, which determines the direction of surrounding people.
A new autonomous mobile robot.

【0002】[0002]

【従来の技術】展示会場を歩き回るロボットが、場内で
出会う見学者に近くの展示物を説明する場合、ロボット
は、見学者および展示物の位置だけでなく見学者の向き
も判定する必要がある。これは、見学者がロボットに背
を向けて歩いている場合とロボットに向かって歩いてい
る場合とで、見学者への指示語が異なるからである。た
とえば、ロボットの右側に展示物があり、見学者がロボ
ットを背にして歩いていれば、ロボットは「右側に展示
物がありますよ」と言えばよいが、見学者がロボットに
向かって歩いていれば、ロボットは「左側に展示物があ
りますよ」と言う必要がある。
2. Description of the Related Art When a robot walking around an exhibition hall explains a nearby exhibit to a visitor who meets in the venue, the robot needs to determine not only the position of the visitor and the exhibit but also the orientation of the visitor. . This is because the instructions to the visitor are different between the case where the visitor is walking with his / her back to the robot and the case where he is walking toward the robot. For example, if there is an exhibit on the right side of the robot and the visitor is walking with the robot behind, the robot can say "There is an exhibit on the right side", but the visitor is walking toward the robot Then the robot needs to say, "There is an exhibit on the left."

【0003】このため、従来は、ロボットにカメラを搭
載し、撮影画像を処理することによって、ロボットの周
囲にいる見学者の向きを判定していた。
[0003] For this reason, conventionally, a camera is mounted on a robot, and a photographed image is processed to determine the orientation of a visitor around the robot.

【0004】[0004]

【発明が解決しようとする課題】しかし、見学者の向き
を判定するには、その前に見学者を検出する必要があ
り、従来技術では見学者の検出も画像処理によって行っ
ていた。このため、見学者に案内メッセージを発するま
でに時間がかかったり、それ以前の見学者の検出精度に
も問題があった。
However, in order to determine the orientation of a visitor, it is necessary to detect the visitor before that. In the prior art, the detection of the visitor was also performed by image processing. For this reason, it takes time until the guide message is issued to the visitor, and there is also a problem in the detection accuracy of the visitor before that.

【0005】それゆえに、この発明の主たる目的は、周
囲にいる人の顔の向きを短時間でかつ正確に判定するこ
とができる、自律移動ロボットを提供することである。
[0005] Therefore, a main object of the present invention is to provide an autonomous mobile robot capable of accurately determining the direction of the face of a person in the vicinity in a short time.

【0006】[0006]

【課題を解決するための手段】この発明は、人間が携帯
した発信からの高周波信号によって人間の存在を検出
する検出手段、検出手段が人間を検出したとき前記発信
源の方向にロボットの向きを変更する向き変更手段、向
き変更手段によってロボットの向きが変更されたき人
間を撮影する撮影手段、および撮影手段による撮影画像
に基づいて人間の顔の向きを判定する判定手段を備え
る、自律移動ロボットである。
According to the present invention, there is provided a detecting means for detecting the presence of a person by using a high-frequency signal from a transmitting source carried by a person, and transmitting the signal when the detecting means detects a person.
Direction changing means for changing the direction of the robot to the direction of the source, direction
The orientation of the robot by can changing means comprises determining means for determining the orientation of a human face based on the image captured by the photographing unit to photograph between human <br/> come to have been changed, and the imaging means, the autonomous mobile robot It is.

【0007】[0007]

【作用】人間が携帯した発信から、高周波信号が出力
される。検出手段は、この高周波信号によって、周囲に
人間が存在することを検出する。人間の存在が検出され
ると、向き変更手段がロボットの向きをその発信源の方
向つまり人間の方向へ変更し、撮影手段がその人間を撮
影し、判定手段が撮影画像に基づいて人間の顔の向きを
判定する。
A high frequency signal is output from a transmission source carried by a human. The detecting means detects the presence of a human in the surroundings based on the high-frequency signal. When the presence of a human is detected, the direction changing means changes the direction of the robot to the source of the robot.
The direction is changed to the direction of the person, the photographing means photographs the person, and the determining means determines the direction of the human face based on the photographed image.

【0008】判定手段は、好ましくは顔領域検出手段,
肌色領域抽出手段,割合算出手段および向き判定手段を
含む。顔領域検出手段は、撮影画像に基づいて人間の顔
領域を検出し、肌色領域抽出手段は、顔領域から肌色領
域を抽出する。割合算出手段は、顔領域に占める肌色領
域の割合を算出し、向き判定手段は、算出された割合に
基づいて人間の向きを判定する。
[0008] The determination means is preferably a face area detection means,
It includes a skin color region extracting unit, a ratio calculating unit, and a direction determining unit. The face area detection means detects a human face area based on the captured image, and the skin color area extraction means extracts a skin color area from the face area. The ratio calculating means calculates the ratio of the skin color area to the face area, and the direction determining means determines the direction of the person based on the calculated ratio.

【0009】[0009]

【発明の効果】この発明によれば、人間が携帯した発信
機からの信号によって人間の存在を検出し、人間の顔の
向きの判定をその人間の撮影画像に基づいて行うように
したため、周囲にいる顔の人の向きを短時間でかつ正確
に判定することができる。
According to the present invention, the presence of a human is detected by a signal from a transmitter carried by the human, and the determination of the orientation of the human face is made based on the photographed image of the human. Therefore, the direction of the person around the face can be accurately determined in a short time.

【0010】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して行う以下の実施例の詳
細な説明から一層明らかとなろう。
The above objects, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

【0011】[0011]

【実施例】図1は、この発明の一実施例の自律移動ロボ
ット10を示す正面図である。この図1を参照して、こ
の実施例の自律移動ロボット(以下、単に「ロボット」
という。)10は、本体ないし筐体12を含み、筐体1
2の下部に軸16で回転可能に車輪14が設けられる。
この車輪14すなわち軸16がモータ36(図2)によ
って駆動され、これによってロボット10が任意の方向
に移動できる。
FIG. 1 is a front view showing an autonomous mobile robot 10 according to one embodiment of the present invention. Referring to FIG. 1, the autonomous mobile robot of this embodiment (hereinafter simply referred to as “robot”)
That. 10) includes a main body or a housing 12 and a housing 1
A wheel 14 is provided at the lower part of the wheel 2 so as to be rotatable around a shaft 16.
The wheels 14, ie, the shaft 16, are driven by a motor 36 (FIG. 2), which allows the robot 10 to move in any direction.

【0012】なお、図示は省略しているが、左右の車輪
を独立して制御できるような動力伝達機構、たとえばデ
ファレンシャルギアなどが軸16または車輪14に関連
して組み込まれている。また、左右の車輪14を独立制
御するために、モータは2つ用いられてもよい。このよ
うな駆動系自体に特徴がある訳ではないので、駆動系の
構成は他に考えられる。
Although not shown, a power transmission mechanism, such as a differential gear, capable of independently controlling the left and right wheels is incorporated in connection with the shaft 16 or the wheels 14. Further, two motors may be used to independently control the left and right wheels 14. Since such a drive system itself does not have a characteristic, other configurations of the drive system are conceivable.

【0013】筐体12は平面ほぼ矩形に形成され、その
4つの側面には高周波センサ18が配置される。各高周
波センサ18は所定周波数の高周波信号を検知したとき
に検知信号を後述のマイクロコンピュータ24(図2)
に出力する。マイクロコンピュータ24は、この検知信
号によって周囲に高周波発信機が存在することを検出す
る。筐体12の前面には、たとえばCCDカメラを有す
るイメージセンサ20が設けられる。イメージセンサ2
0は、CCDカメラによって前方の物体を撮影し、撮影
画像信号をマイクロコンピュータ24に出力する。筐体
12の上面には、スピーカ22が設けられる。スピーカ
24は、マイクロコンピュータ24によって生成された
合成音声データを取り込み、対応する合成音声を発す
る。
The housing 12 is formed in a substantially rectangular plane, and high-frequency sensors 18 are arranged on four side surfaces thereof. When each high-frequency sensor 18 detects a high-frequency signal of a predetermined frequency, it outputs a detection signal to a microcomputer 24 (FIG. 2) described later.
Output to The microcomputer 24 detects the presence of the high-frequency transmitter in the surroundings based on the detection signal. An image sensor 20 having, for example, a CCD camera is provided on the front surface of the housing 12. Image sensor 2
In the case of 0, an object ahead is photographed by the CCD camera, and a photographed image signal is output to the microcomputer 24. A speaker 22 is provided on the upper surface of the housing 12. The speaker 24 captures the synthesized voice data generated by the microcomputer 24 and emits a corresponding synthesized voice.

【0014】図2を参照して、図1の筐体12内にはマ
イクロコンピュータ24が設けられる。図2では1つの
マイクロコンピュータ24が図示されているが、必要に
応じて、複数のマイクロコンピュータを設けて、それぞ
れに画像処理,音声処理,駆動制御等のタスクを分担さ
せるようにしてもよい。しかしながら、ここでの説明で
は、便宜上、1つまたは複数のマイクロコンピュータを
マイクロコンピュータ24で代表させる。
Referring to FIG. 2, a microcomputer 24 is provided in housing 12 of FIG. Although one microcomputer 24 is shown in FIG. 2, a plurality of microcomputers may be provided as necessary, and tasks such as image processing, sound processing, and drive control may be shared among the microcomputers. However, in the following description, one or more microcomputers are represented by the microcomputer 24 for convenience.

【0015】マイクロコンピュータ24は、図1を参照
して説明した高周波センサ18およびイメージセンサ2
0からの入力を受けるとともに、スピーカ22に合成音
声データを与える。図1では図示しなかったが、ロボッ
ト10にはさらにエンコーダ30およびコンパス32が
設けられる。エンコーダ30は左右の車輪14に個別に
設けられ、各車輪14の回転数に応じた数のパルス信号
をマイクロコンピュータ26に入力する。マイクロコン
ピュータ24では、各エンーダ30からのパルス信号を
カウントしてロボット10が移動している速度や刻々変
化する位置を計算する。コンパス32はロボット10の
方位(移動方向)を知るためのものである。
The microcomputer 24 includes the high-frequency sensor 18 and the image sensor 2 described with reference to FIG.
It receives the input from 0 and gives the synthesized voice data to the speaker 22. Although not shown in FIG. 1, the robot 10 is further provided with an encoder 30 and a compass 32. The encoders 30 are individually provided for the left and right wheels 14, and input pulse signals of a number corresponding to the number of rotations of each wheel 14 to the microcomputer 26. The microcomputer 24 counts the pulse signals from each of the enders 30 and calculates the speed at which the robot 10 is moving and the position that changes every moment. The compass 32 is for knowing the azimuth (moving direction) of the robot 10.

【0016】ここで、発明者等がロボット10の実験に
使った部屋は、図3に示すように、4m四方のほぼ正方
形の部屋で、部屋の中は4つのブロックに分割されてい
る。ドアの部分がスタートで、対角の位置に目的地が設
定され、右上のブロックに展示物40が置かれている。
また、高周波発信機38aを携帯した人間38が、部屋
の中を歩き回っている。
Here, as shown in FIG. 3, the room used by the inventors for the experiment on the robot 10 is a substantially square room of 4 m square, and the room is divided into four blocks. The door part starts, the destination is set at a diagonal position, and the exhibit 40 is placed in the upper right block.
A person 38 carrying a high-frequency transmitter 38a is walking around the room.

【0017】この部屋の地図データ(目的地および展示
物を示す)はマイクロコンピュータ24のRAM28に
予め記憶されており、ロボット10は、地図データと上
述のエンコーダ32およびコンパス34からの入力とに
よって、現在位置を知ることができる。RAM28には
また、移動経路データが記憶されており、ロボット10
は、この移動経路データに従って部屋の中を移動する。
記憶された移動経路は、図3に矢印で示される。一方、
ROM26には、自律移動のためのメインプログラムな
らびに高周波センサ18からの検知信号に応答して実行
される割り込み処理プログラムが記憶されている。
The map data of the room (indicating the destination and the exhibit) is stored in the RAM 28 of the microcomputer 24 in advance, and the robot 10 receives the map data and inputs from the encoder 32 and the compass 34 described above. You can know the current location. The RAM 28 also stores travel route data, and the robot 10
Moves in the room according to the movement route data.
The stored travel route is indicated by an arrow in FIG. on the other hand,
The ROM 26 stores a main program for autonomous movement and an interrupt processing program executed in response to a detection signal from the high frequency sensor 18.

【0018】図4を参照して、割り込み処理プログラム
を処理するときのマイクロコンピュータ24の動作を説
明する。高周波信号の検出を示す検知信号が高周波セン
サ18から与えられると、まずステップS1でロボット
10の向きを高周波信号の発信源の方向に変更し、次に
ステップS3でイメージセンサ20から撮影画像信号を
取り込む。ロボット10の向きを変更することで、撮影
画像信号には高周波発信機38aを携帯した人間38の
画像が含まれることとなる。
Referring to FIG. 4, the operation of the microcomputer 24 when processing the interrupt processing program will be described. When a detection signal indicating the detection of a high-frequency signal is given from the high-frequency sensor 18, the direction of the robot 10 is first changed to the direction of the source of the high-frequency signal in step S 1, and then the captured image signal from the image sensor 20 is changed in step S 3. take in. By changing the direction of the robot 10, the captured image signal includes an image of the person 38 carrying the high-frequency transmitter 38a.

【0019】ステップS5では取り込んだ撮影画像から
背景差分法によって人間38の全身画像を抽出し、ステ
ップS7では抽出した全身画像から顔領域を認識する。
顔領域は、全身画像からの輪郭線抽出処理、輪郭線から
の特徴点検出処理を経て認識される。続いて、ステップ
S9で顔領域から肌色領域を抽出し、ステップS11で
顔領域に占める肌色領域の割合を算出する。ステップS
13では、算出された肌色領域の割合と肌色領域の位置
とに基づいて、人間38の顔の向きを判定する。
In step S5, a whole body image of the human 38 is extracted from the captured image by the background subtraction method. In step S7, a face area is recognized from the extracted whole body image.
The face area is recognized through a contour line extraction process from the whole body image and a feature point detection process from the contour line. Subsequently, in step S9, a skin color area is extracted from the face area, and in step S11, the ratio of the skin color area to the face area is calculated. Step S
In 13, the orientation of the face of the human 38 is determined based on the calculated ratio of the skin color region and the position of the skin color region.

【0020】つまり、肌色領域が顔領域の大部分を占め
ていれば、顔はロボット10と対面する方向を向いてい
ると判定し、肌色領域がほとんどなければ、顔はロボッ
ト10と同じ方向を向いていると判定する。また、肌色
領域が顔領域の半分程度を占めている場合に、肌色領域
が顔領域の右側に位置すれば、顔はロボット10の右前
方を向いていると判定し、逆に肌色領域が顔領域の左側
に位置すれば、顔はロボット10の左前方を向いている
と判定する。
That is, if the skin color area occupies most of the face area, it is determined that the face is facing in the direction facing the robot 10, and if there is almost no skin color area, the face is in the same direction as the robot 10. It is determined that it is suitable. When the skin color area occupies about half of the face area and the skin color area is located on the right side of the face area, it is determined that the face is facing the front right of the robot 10, and conversely, the skin color area is If the face is located on the left side of the area, it is determined that the face is facing the front left of the robot 10.

【0021】ステップS15では、予め記憶された地図
データに基づいて展示物40の位置を特定し、ステップ
S17では、人間38の位置および向きと展示物40の
位置の関係に応じた案内をスピーカ22から発する。つ
まり、展示物40が人間38の後方に存在するときは
「後方に展示物がありますよ」と言い、展示物40が人
間38の前方に存在するときは「前方に展示物がありま
すよ」と言う。また、展示物40が人間38の右側に存
在するときは「右側に展示物がありますよ」と言い、展
示物40が人間38の左側に存在するときは「左側に展
示物がありますよ」と言う。
In step S15, the position of the exhibit 40 is specified based on the map data stored in advance. In step S17, guidance according to the relationship between the position and orientation of the person 38 and the position of the exhibit 40 is provided by the speaker 22. Emanates from. In other words, when the exhibit 40 exists behind the human 38, "there is an exhibit behind", and when the exhibit 40 exists in front of the human 38, "there is an exhibit ahead." To tell. Also, when the exhibit 40 is on the right side of the human 38, it says "there is an exhibit on the right", and when the exhibit 40 is on the left of the human 38, it is "there is an exhibit on the left." To tell.

【0022】図3を参照して、人間38がロボット10
の左前方から右前方に向かって歩いているとき、ロボッ
ト10はこの人間38の存在を高周波信号に基づいて検
出する。すると、ロボット10は人間38の全身画像を
撮影し、撮影画像に基づいて人間38が右前方を向いて
いると判定する。ロボット10はさらに、地図データに
基づいて展示物40の位置を特定する。そして、人間3
8の位置および向きと展示物40の位置とに基づいて、
「左側に展示物がありますよ」との音声案内をする。
Referring to FIG. 3, human 38
When walking from the front left to the front right, the robot 10 detects the presence of the human 38 based on the high-frequency signal. Then, the robot 10 captures a whole body image of the human 38, and determines that the human 38 is facing right front based on the captured image. The robot 10 further specifies the position of the exhibit 40 based on the map data. And human 3
8 and the position of the exhibit 40,
Say "There is an exhibit on the left."

【0023】この実施例によれば、ロボットはまず、人
間が携帯した発信機からの周波数信号によって、周囲に
人間が存在することを検出する。すると、ロボットは、
人間が存在する方向を向いて撮影を行い、撮影画像に基
づいて人間の向きを判定する。このように、人間の位置
検出は高周波信号によって行われ、画像処理は人物像が
確実に含まれる撮影画像に対して実行される。したがっ
て、従来技術に比べて、人間の検出精度が向上するとと
もに、画像処理に要する時間が短縮される。
According to this embodiment, the robot first detects the presence of a human in the vicinity by using a frequency signal from a transmitter carried by the human. Then the robot
Photographing is performed in the direction in which a human exists, and the direction of the human is determined based on the captured image. As described above, the detection of the position of the human is performed by the high-frequency signal, and the image processing is performed on the captured image including the human image without fail. Therefore, as compared with the related art, the accuracy of detecting a person is improved, and the time required for image processing is reduced.

【0024】なお、以上のようなロボットを展示会場に
配置する場合、展示会場を訪れる見学者には入場時に高
周波発信機を内蔵したカードを渡す方法が考えられる。
ここで、見学者の氏名やどのような分野に興味があるか
などの見学者データをカードに登録し、高周波信号とと
もに発信するようにし、ロボットに見学者データに関連
する音声メッセージを出力させるようにしてもよい。音
声メッセージとしては、「**さん、あなたの左側に○
○が展示されてますよ」や、「△△さん、あなたの右側
にいる□□さんもあなたと同じ分野に興味を持ってま
す」などが考えられる。
When the above-mentioned robot is placed in the exhibition hall, a method of giving a card with a built-in high-frequency transmitter to a visitor who visits the exhibition hall at the time of entry can be considered.
Here, register the visitor data such as the name of the visitor and what field you are interested in on the card, transmit it together with the high-frequency signal, and make the robot output a voice message related to the visitor data It may be. As a voice message, "**, on your left
○ is on display ”, and“ △△, □□ on your right are also interested in the same field as you ”.

【0025】なお、この実施例では、人間が携帯した発
信機からの高周波信号を高周波センサによって検知し、
これによって周囲に人間が存在することを検出するよう
にしたが、人間の存在の検出に用いる信号は、高周波信
号以外に赤外線信号または超音波信号を用いてもよい。
この場合、人間には赤外線発信機または超音波発信機を
携帯させ、ロボットには赤外線センサまたは超音波セン
サを設ける必要がある。
In this embodiment, a high-frequency signal from a transmitter carried by a human is detected by a high-frequency sensor.
Thus, the presence of a human in the vicinity is detected. However, a signal used for detecting the presence of a human may be an infrared signal or an ultrasonic signal other than the high-frequency signal.
In this case, a human needs to carry an infrared transmitter or an ultrasonic transmitter, and the robot needs to be provided with an infrared sensor or an ultrasonic sensor.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例のロボットを示す正面図解
図である。
FIG. 1 is an illustrative front view showing a robot according to an embodiment of the present invention;

【図2】図1実施例のロボットの構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of the robot of the embodiment in FIG. 1;

【図3】実験に用いた部屋の概要を示す図解図である。FIG. 3 is an illustrative view showing an outline of a room used in the experiment;

【図4】図1実施例の動作の一部を示すフロー図であ
る。
FIG. 4 is a flowchart showing a part of the operation of the embodiment in FIG. 1;

【符号の説明】[Explanation of symbols]

10…ロボット 14…車輪 18…高周波センサ 20…イメージセンサ 22…スピーカ 24…マイクロコンピュータ 30…エンコーダ 32…コンパス 34…モータ DESCRIPTION OF SYMBOLS 10 ... Robot 14 ... Wheel 18 ... High frequency sensor 20 ... Image sensor 22 ... Speaker 24 ... Microcomputer 30 ... Encoder 32 ... Compass 34 ... Motor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高田 司郎 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (72)発明者 石黒 浩 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (72)発明者 西村 竜一 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (72)発明者 野間 春生 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (72)発明者 杉原 敏昭 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (72)発明者 宮里 勉 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (72)発明者 中津 良平 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール知 能映像通信研究所内 (56)参考文献 特開 平4−76698(JP,A) 特開 平6−274584(JP,A) 特開 平8−138024(JP,A) 特開2000−268180(JP,A) 小野哲雄(外2名),人間と共生する ロボットの社会性 コミュニケーション における関係性の創出,情報処理学会研 究報告,平成10年10月2日,Vol. 98,No.90,p43−49 (58)調査した分野(Int.Cl.7,DB名) B25J 13/08 B25J 5/00 G06T 1/00 340 G06T 7/60 150 JICSTファイル(JOIS)────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Shiro Takada 5th Sanriya, Seiya-cho, Seika-cho, Kyoto, Japan No. 5, Hiratani, Seiya-cho, Gunma-cho, Japan A / T R & D Co., Ltd. (72) Inventor Ryuichi Nishimura Ritsuichi Nishimura, No. 5, Sanya-ya, Seika-cho, Kyoto, Soraku-gun, Kyoto A.T. Inside the Intelligent Video Communication Research Laboratory (72) Inventor Haruo Noma Kyoto, Sagara-gun, Seika-cho, 5th Inuiya small character Sanraya, 5th A.T.R., Inc.Intellectual Video Communication Research Laboratory (72) Inventor Toshiaki Sugihara, Kyoto, Japan Seikacho, Inaya, Sub-section, Sanraya, 5 AIT Co., Ltd. In-house (72) Inventor Tsutomu Miyazato 5 in Saniya, Saika-cho, Kyoto Prefecture, Japan No. 5 Mihiraya Inside ATR Intelligent Video Communications Laboratory (56) References JP-A-4-76698 (JP, A) JP-A-6-274584 (JP, A) JP-A-8-138024 (JP, A) JP-A-2000-268180 (JP, A) Tetsuo Ono (Two others), Creation of Relationships in Social Communication of Robots Symbiotic with Humans, IPSJ Research Report, October 1998 2nd, Vol. 98, No. 90, p43-49 (58) Fields investigated (Int. Cl. 7 , DB name) B25J 13/08 B25J 5/00 G06T 1/00 340 G06T 7/60 150 JICST file (JOIS)

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】人間が携帯した発信からの高周波信号に
よって人間の存在を検出する検出手段、前記検出手段が人間を検出したとき前記発信源の方向に
ロボットの向きを変更する向き変更手段、 前記向き変更手段によってロボットの向きが変更された
き人間を撮影する撮影手段、および前記撮影手段によ
る撮影画像に基づいて人間の顔の向きを判定する判定手
段を備える、自律移動ロボット。
1. A detecting means for detecting the presence of a human being by a high-frequency signal from a transmitting source carried by a human, and in the direction of the transmitting source when the detecting means detects a human being.
Direction changing means for changing the orientation of the robot, the orientation imaging means for imaging between humans can and <br/> the orientation of the robot is changed by the changing means, and the human face based on the image captured by the imaging means An autonomous mobile robot comprising a determination unit for determining an orientation.
【請求項2】前記判定手段は、前記撮影画像に基づいて
人間の顔領域を検出する顔領域検出手段、前記顔領域か
ら肌色領域を抽出する肌色領域抽出手段、前記顔領域に
占める前記肌色領域の割合を算出する割合算出手段、お
よび前記割合に基づいて人間の向きを判定する向き判定
手段を含む、請求項1記載の自律移動ロボット。
2. A face area detecting means for detecting a human face area based on the photographed image, a skin color area extracting means for extracting a skin color area from the face area, and the skin color area occupying the face area. The autonomous mobile robot according to claim 1, further comprising: a ratio calculating unit that calculates a ratio of the moving object; and a direction determining unit that determines a direction of a human based on the ratio.
JP31176299A 1999-11-02 1999-11-02 Autonomous mobile robot Expired - Fee Related JP3210649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31176299A JP3210649B2 (en) 1999-11-02 1999-11-02 Autonomous mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31176299A JP3210649B2 (en) 1999-11-02 1999-11-02 Autonomous mobile robot

Publications (2)

Publication Number Publication Date
JP2001129777A JP2001129777A (en) 2001-05-15
JP3210649B2 true JP3210649B2 (en) 2001-09-17

Family

ID=18021189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31176299A Expired - Fee Related JP3210649B2 (en) 1999-11-02 1999-11-02 Autonomous mobile robot

Country Status (1)

Country Link
JP (1) JP3210649B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3906743B2 (en) * 2002-05-27 2007-04-18 松下電工株式会社 Guide robot
JP4355158B2 (en) * 2003-04-01 2009-10-28 本田技研工業株式会社 Reception information system
JP4048492B2 (en) * 2003-07-03 2008-02-20 ソニー株式会社 Spoken dialogue apparatus and method, and robot apparatus
JP4479194B2 (en) 2003-08-29 2010-06-09 富士ゼロックス株式会社 Motion identification device and object posture identification device
JP2005148915A (en) * 2003-11-12 2005-06-09 Noritsu Koki Co Ltd Proper face discrimination method and apparatus for implementing the method
JP4599522B2 (en) * 2006-02-21 2010-12-15 株式会社国際電気通信基礎技術研究所 Communication robot
JP4940698B2 (en) * 2006-02-27 2012-05-30 トヨタ自動車株式会社 Autonomous mobile robot
JP5219535B2 (en) * 2008-02-07 2013-06-26 国立大学法人埼玉大学 Autonomous mobile wheelchair
JP5096980B2 (en) * 2008-03-28 2012-12-12 綜合警備保障株式会社 Mobile object, mobile object direction control method, and mobile object direction control program
CN107253199B (en) * 2017-06-03 2019-08-20 上海昊蕾信息技术有限公司 A kind of intelligent security guard robot
WO2022230172A1 (en) * 2021-04-30 2022-11-03 日本電気株式会社 Vehicle control device, control method, and non-transitory computer-readable medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小野哲雄(外2名),人間と共生するロボットの社会性 コミュニケーションにおける関係性の創出,情報処理学会研究報告,平成10年10月2日,Vol.98,No.90,p43−49

Also Published As

Publication number Publication date
JP2001129777A (en) 2001-05-15

Similar Documents

Publication Publication Date Title
JP3210649B2 (en) Autonomous mobile robot
US6483429B1 (en) Parking assistance system
JP3951465B2 (en) Parking assistance device
JP2008084135A (en) Movement control method, mobile robot and movement control program
JP4940698B2 (en) Autonomous mobile robot
CN107205111B (en) Image pickup apparatus, mobile apparatus, image pickup system, image pickup method, and recording medium
JP3411529B2 (en) Autonomous mobile robot
JP2003280739A (en) Autonomous moving robot used for guidance and its control method
JP2002104117A (en) Driving support system for vehicle
CN115053279A (en) Driving assistance device, vehicle, and driving assistance method
KR20220098774A (en) Method and system for performing remote-controlled parking maneuvering with a vehicle using a mobile terminal device
KR20150128140A (en) Around view system
JP2001318594A (en) Walk support system for visually handicapped person and information recording medium
CN110871440B (en) Method and device for controlling robot running
JP2020106986A (en) Information processing device, information processing method, and mobile
JP4325410B2 (en) In-vehicle device
KR20160144643A (en) Apparatus for prividing around view and vehicle including the same
JP2007279824A (en) Autonomous mobile robot
JP2000123298A (en) Detector of obstacle position and detection method for the same
TW201510961A (en) Image recognition detector for blind person
KR20120117263A (en) Apparatus and method for parking assist
US11964402B2 (en) Robot control system, robot control method, and control program
JPH05143895A (en) Automatic parking device
US20220250250A1 (en) Robot control system, robot control method, and control program
US20220253069A1 (en) Robot control system, robot control method, and control program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010703

R150 Certificate of patent or registration of utility model

Ref document number: 3210649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090713

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130713

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140713

Year of fee payment: 13

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees