JP2008012635A - Personal identification system - Google Patents

Personal identification system Download PDF

Info

Publication number
JP2008012635A
JP2008012635A JP2006188096A JP2006188096A JP2008012635A JP 2008012635 A JP2008012635 A JP 2008012635A JP 2006188096 A JP2006188096 A JP 2006188096A JP 2006188096 A JP2006188096 A JP 2006188096A JP 2008012635 A JP2008012635 A JP 2008012635A
Authority
JP
Japan
Prior art keywords
information
specific person
person
feature information
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006188096A
Other languages
Japanese (ja)
Inventor
Hiroaki Shimizu
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006188096A priority Critical patent/JP2008012635A/en
Publication of JP2008012635A publication Critical patent/JP2008012635A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a personal identification system capable of improving an identification accuracy of a specific person. <P>SOLUTION: In the personal identification system for performing the identification of the specific person M, characteristic information used for the identification of the specific person M is obtained by a mobile robot R moving to track the specific person M, the characteristic information for identifying the specific person M is selected based on the time information in obtaining the characteristic information, and the characteristic information to be selected is set as the identification information used for the identification of the specific person M to perform the identification of the specific person M. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、特定人物の識別を行う人物識別システムに関するものである。   The present invention relates to a person identification system for identifying a specific person.

従来、特定人物の識別を行う装置として、例えば、自走式の自動搬送ロボットであって、取扱い登録者の人体の特徴などを読み取って登録者を認識する登録者認識部を備えたものが知られている(例えば、特許文献1参照)。この装置は、取扱い登録者を認識することにより、搬送物の盗難などを防止してセキュリティ機能を向上させようとするものである。
特開2001−287183号公報
Conventionally, as a device for identifying a specific person, for example, a self-propelled automatic transfer robot that includes a registrant recognition unit that recognizes a registrant by reading the characteristics of a human body of a registered registrant is known. (For example, refer to Patent Document 1). By recognizing a handling registrant, this device is intended to improve security functions by preventing theft of conveyed items.
JP 2001-287183 A

しかしながら、このような装置にあっては、取扱い登録者の服装が変わったり、認識環境が変化した場合など、それに類似する登録者の特徴情報を取得していないと、登録者の識別が困難となる。そのような事態を回避するためには、登録者の特徴情報などを事前に多数記憶し、その記憶データに基づいて識別対象人物が登録者であるか否かを識別することが考えられる。ところが、登録者の特徴情報など多大なデータ数になると、登録者の固有の特徴が薄れて識別精度が低下するおそれがある。   However, in such a device, it is difficult to identify the registrant unless the registrant's feature information similar to that is acquired, such as when the registrant's clothes change or the recognition environment changes. Become. In order to avoid such a situation, it is conceivable to store a large number of registrants' characteristic information in advance and identify whether or not the person to be identified is a registrant based on the stored data. However, when the number of data such as the registrant's feature information becomes large, the registrant's unique features may fade and the identification accuracy may be reduced.

そこで本発明は、このような技術課題を解決するためになされたものであって、特定人物の識別精度の向上が図れる人物識別システムを提供することを目的とする。   Therefore, the present invention has been made to solve such a technical problem, and an object thereof is to provide a person identification system capable of improving the identification accuracy of a specific person.

すなわち本発明に係る人物識別システムは、特定人物の識別を行う人物識別システムであって、前記特定人物を追尾して移動し、前記特定人物の識別に用いる特徴情報を取得し、その特徴情報をその取得時の時刻情報と共に記録する自律移動体と、前記自律移動体により取得された特徴情報を入力し、前記特徴情報を取得した時刻情報に基づいて前記特定人物を識別するための特徴情報を選択する選択手段と、前記選択手段に選択された特徴情報を前記特定人物の識別に用いる識別情報として設定する識別学習手段とを備えて構成されている。   That is, the person identification system according to the present invention is a person identification system for identifying a specific person, tracking and moving the specific person, acquiring characteristic information used for identifying the specific person, and obtaining the characteristic information. Autonomous mobile object to be recorded together with time information at the time of acquisition, feature information acquired by the autonomous mobile object, and feature information for identifying the specific person based on the time information at which the feature information is acquired Selection means for selecting, and identification learning means for setting the feature information selected by the selection means as identification information used for identification of the specific person are configured.

この発明によれば、特定人物を追尾する自律移動体によって特定人物の特徴情報を取得することにより、特定人物の特徴情報を頻繁に取得することができる。このため、特定人物の最新の特徴情報を取得することができ、その最新の特徴情報を識別情報として特定人物の識別に用いることによって特定人物の識別精度の向上を図ることができる。   According to the present invention, the feature information of the specific person can be frequently obtained by acquiring the feature information of the specific person by the autonomous mobile body that tracks the specific person. Therefore, the latest feature information of the specific person can be acquired, and the identification accuracy of the specific person can be improved by using the latest feature information as identification information for identifying the specific person.

また本発明に係る人物識別システムにおいて、前記自律移動体は、前記特徴情報及び前記時刻情報と共に前記特徴情報の取得時の位置情報を記録し、前記選択手段は、前記特徴情報を取得した時刻情報及び位置情報に基づいて前記特定人物を識別するための特徴情報を選択することが好ましい。   Also, in the person identification system according to the present invention, the autonomous mobile body records position information at the time of acquisition of the feature information together with the feature information and the time information, and the selection unit acquires time information at which the feature information is acquired. It is preferable to select feature information for identifying the specific person based on the position information.

この場合、特定人物の特徴情報を取得した時刻情報及び位置情報に基づいて特定人物を識別するための特徴情報を選択することにより、特徴情報を取得してから経過時間が所定時間より長い特徴情報や特徴情報を取得した地点から特定人物を識別する地点が所定距離より遠い特徴情報を選択しないようにすることができる。これにより、特徴情報を選択する際に選択候補となる特徴情報を削減でき、選択処理が迅速に行える。また、有効な特徴情報のみを選択できるため、特定人物の識別精度の向上を図ることができる。   In this case, by selecting feature information for identifying the specific person based on the time information and position information at which the feature information of the specific person is acquired, the feature information whose elapsed time is longer than a predetermined time after acquiring the feature information In addition, it is possible to prevent selection of feature information in which a point for identifying a specific person from a point from which feature information is acquired is longer than a predetermined distance. Thereby, the feature information which becomes a selection candidate when selecting the feature information can be reduced, and the selection process can be performed quickly. In addition, since only effective feature information can be selected, it is possible to improve the identification accuracy of a specific person.

本発明によれば、特定人物を追従する自律移動体で特定人物の最新の特徴情報を取得することにより、特定人物の識別精度の向上を図ることができる。   According to the present invention, it is possible to improve the identification accuracy of a specific person by acquiring the latest feature information of the specific person with an autonomous mobile body that follows the specific person.

以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
(第一実施形態)
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted.
(First embodiment)

図1は本発明の第一実施形態に係る人物識別システムのモビルロボット及び特定人物を模式的に示した平面図、図2はモビルロボットの構造を示す側面図、図3はモビルロボット、基地局及び車両との関係を示す模式図、図4はモビルロボットにおける制御装置の構成概要を示すブロック図、図5は基地局の構成を示すブロック図、図6は車両の構成概要を示すブロック図である。   FIG. 1 is a plan view schematically showing a mobile robot and a specific person of the person identification system according to the first embodiment of the present invention, FIG. 2 is a side view showing the structure of the mobile robot, and FIG. 3 is a mobile robot and a base station FIG. 4 is a block diagram showing a configuration outline of a control device in a mobile robot, FIG. 5 is a block diagram showing a configuration of a base station, and FIG. 6 is a block diagram showing a configuration outline of the vehicle. is there.

図1に示すように、特定人物Mは、識別すべき対象となる人物であり、例えばモビルロボットRの使用者、オーナー、もしくは主人である。モビルロボットRは、特定人物Mを追尾して移動する自律移動体である。このモビルロボットRは、特定人物Mと所定の位置関係を保ちながら移動するものであり、例えば特定人物Mの近傍において特定人物Mおよびその周辺状況を観測しつつその観測情報に基づいて特定人物Mを先導し、あるいは特定人物Mに追従する。   As shown in FIG. 1, the specific person M is a person to be identified, for example, a user, owner, or master of the mobile robot R. The mobile robot R is an autonomous mobile body that moves by tracking the specific person M. The mobile robot R moves while maintaining a predetermined positional relationship with the specific person M. For example, the mobile robot R observes the specific person M and its surroundings in the vicinity of the specific person M based on the observation information. Or follow a specific person M.

図2に示すように、モビルロボットRは、走行装置1により移動可能なボディR1と、このボディR1に対して回転可能に接続されたヘッドR2とを備えている。ボディR1には、報知、警報、案内などの各種のメッセージを画像や文字により表示可能なディスプレイ2が設置されている。そして、このボディR1には、電源としてのバッテリ3、ヘッドR2を回転駆動するためのヘッド駆動モータ4の他、走行装置1、ディスプレイ2、ヘッド駆動モータ4などを制御するための制御装置5が内蔵されている。   As shown in FIG. 2, the mobile robot R includes a body R1 that can be moved by the traveling device 1, and a head R2 that is rotatably connected to the body R1. The body R1 is provided with a display 2 that can display various messages such as notifications, warnings, and guidance by images and characters. The body R1 includes a battery 3 as a power source, a head drive motor 4 for rotationally driving the head R2, and a control device 5 for controlling the travel device 1, the display 2, the head drive motor 4, and the like. Built in.

一方、モビルロボットRのヘッドR2には、特定人物Mおよびその周辺に存在する障害物(他の人物や動物、構造物、設置物、車両等)などを含む周辺状況をステレオ画像として観測するための左右一対のCCDカメラ(または赤外線カメラ)6A、6Bと、報知、警報、案内などの各種メッセージの音声を発声可能なスピーカ7とが設置されている。また、ヘッドR2には、他のモビルロボットや基地局との間で送受信を行うためのアンテナ8が設けられている。さらに、ボディR1には、モビルロボットRが自己位置を検出する自己位置検出手段となる位置センサ9が設けられている。位置センサ9は、たとえばGPS装置からなり、衛星と通信などをすることによって、自己の位置を検出している。位置センサ9により検出された位置情報は、データベース20に記録される。その際、位置情報は、時刻情報と共に記録することが好ましい。   On the other hand, in the head R2 of the mobile robot R, in order to observe a surrounding situation including a specific person M and obstacles (another person, animal, structure, installation, vehicle, etc.) existing around it as a stereo image. A pair of left and right CCD cameras (or infrared cameras) 6A and 6B and a speaker 7 capable of producing voices of various messages such as notifications, alarms, and guidance are installed. The head R2 is provided with an antenna 8 for performing transmission / reception with other mobile robots and base stations. Further, the body R1 is provided with a position sensor 9 serving as self-position detecting means for detecting the self-position of the mobile robot R. The position sensor 9 is composed of a GPS device, for example, and detects its own position by communicating with a satellite. The position information detected by the position sensor 9 is recorded in the database 20. At this time, the position information is preferably recorded together with the time information.

図3に示すように、モビルロボットRと基地局Bとの間では、信号の送受信が可能となっている。基地局Bは、モビルロボットRが取得した情報を収集する情報管理センタとして機能するものであり、例えば基地局Bと無線によりモビルロボットRと通信可能となっている。基地局Bは、センタ制御装置B1、送受信用のアンテナB4などを備えている。   As shown in FIG. 3, signals can be transmitted and received between the mobile robot R and the base station B. The base station B functions as an information management center that collects information acquired by the mobile robot R. For example, the base station B can communicate with the mobile robot R wirelessly with the base station B. The base station B includes a center control device B1, a transmission / reception antenna B4, and the like.

また、基地局Bと車両Cとの間では、信号の送受信が可能となっている。車両Cは、特定人物Mが乗用する移動体であり、例えば基地局Bと無線によりモビルロボットRと通信可能となっている。車両Cは、基地局Bから送信される特定人物Mの特徴情報を受信し、その特徴情報を用いて特定人物Mの識別処理を行う。   In addition, signals can be transmitted and received between the base station B and the vehicle C. The vehicle C is a moving body that the specific person M rides on, and can communicate with the mobile robot R wirelessly with the base station B, for example. The vehicle C receives the characteristic information of the specific person M transmitted from the base station B, and performs identification processing of the specific person M using the characteristic information.

図1および図2に示すように、走行装置1は、例えば、ホイールインモータ1A、1Bにより回転方向および回転速度が左右独立に制御される左右一対の駆動車輪1C、1Dと、360度の旋回が可能なキャスタ車輪1Eと、を有する。   As shown in FIGS. 1 and 2, the traveling device 1 includes, for example, a pair of left and right drive wheels 1 </ b> C and 1 </ b> D whose rotation direction and rotation speed are independently controlled by wheel-in motors 1 </ b> A and 1 </ b> B, and a 360-degree turn Caster wheels 1E capable of

この走行装置1は、左右一対の駆動車輪1C、1Dが同方向に前転駆動または後転駆動されることでモビルロボットRを前進または後退させる。その際、左右一対の駆動車輪1C、1Dの回転速度が同速度であればモビルロボットRを直進させ、左右一対の駆動車輪1C、1Dの回転速度に差があれば駆動車輪1C、1Dのうち回転速度の遅い側にモビルロボットRを旋回させる。そして、この走行装置1は、左右一対の駆動車輪1C、1Dが同速度で相互に逆方向に回転駆動されると、モビルロボットRをその場で左右の何れかに回転させる。   The traveling device 1 moves the mobile robot R forward or backward by driving the pair of left and right drive wheels 1 </ b> C and 1 </ b> D forward or backward in the same direction. At that time, if the rotation speeds of the pair of left and right drive wheels 1C and 1D are the same, the mobile robot R is moved straight, and if there is a difference between the rotation speeds of the pair of left and right drive wheels 1C and 1D, of the drive wheels 1C and 1D. The mobile robot R is turned to the slow rotation side. When the pair of left and right drive wheels 1C and 1D are driven to rotate in the opposite directions at the same speed, the traveling device 1 rotates the mobile robot R to the left or right on the spot.

ここで、制御装置5は、ECU(ElectricControl Unit)等のマイクロコンピュータのハードウェアおよびソフトウェアを利用して構成されている。この制御装置5は、ホイールインモータ1A、1Bやヘッド駆動モータ4の駆動回路、ディスプレイ2、CCDカメラ6A、6B、スピーカ7等との間の入出力インターフェースI/OおよびA/Dコンバータの他、プログラムおよびデータを記憶したROM(Read Only Memory)、入力データ等を一時記憶するRAM(Random Access Memory)、プログラムを実行するCPU(Central Processing Unit)等をハードウェアとして備えている。   Here, the control device 5 is configured using hardware and software of a microcomputer such as an ECU (Electric Control Unit). The control device 5 includes a drive circuit for the wheel-in motors 1A and 1B and the head drive motor 4, an input / output interface I / O between the display 2, the CCD cameras 6A and 6B, the speaker 7, and the A / D converter. As a hardware, a ROM (Read Only Memory) that stores programs and data, a RAM (Random Access Memory) that temporarily stores input data and the like, a CPU (Central Processing Unit) that executes programs, and the like are provided.

そして、この制御装置5には、図4に示すように、画像生成部11、特定人物検出部12、ヘッド駆動モータ制御部13、走行障害物検出部14、ホイールインモータ制御部1、報知情報作成部16、表示制御部17、通信部18、計時部19及びデータベース20を備えている。   As shown in FIG. 4, the control device 5 includes an image generation unit 11, a specific person detection unit 12, a head drive motor control unit 13, a traveling obstacle detection unit 14, a wheel-in motor control unit 1, and notification information. A creation unit 16, a display control unit 17, a communication unit 18, a timer unit 19, and a database 20 are provided.

CCDカメラ6A、6Bは、特定人物Mを含む周辺状況を撮影し、撮影データを計測時刻情報とともに画像生成部11に所定時間毎に出力する。画像生成部11は、左右のCCDカメラ6A、6Bから出力される左右の撮影データおよび計測時刻情報に基づいて各計測時刻におけるステレオ画像を順次生成し、その画像データを計測時刻情報とともに特定人物検出部12、走行障害物検出部14及びデータベース20へ所定時間毎に繰り返して出力する。計時部19は、時刻情報を生成して、画像生成部11に時刻情報信号を出力している。   The CCD cameras 6A and 6B capture the surrounding situation including the specific person M, and output the captured data to the image generation unit 11 together with the measurement time information at predetermined time intervals. The image generation unit 11 sequentially generates a stereo image at each measurement time based on the left and right photographing data output from the left and right CCD cameras 6A and 6B and the measurement time information, and detects the specific person along with the measurement time information. The data is repeatedly output to the unit 12, the traveling obstacle detection unit 14, and the database 20 at predetermined time intervals. The timer unit 19 generates time information and outputs a time information signal to the image generator 11.

特定人物検出部12は、画像生成部11から順次出力される画像データに基づいて特定人物Mの検出を行うものであり、例えば、画像生成部11から順次出力される画像データに基づいて撮影画像のエッジ処理を行い、予め記憶されている特定人物Mの輪郭モデルとのマッチング処理により特定人物Mを検出する。特定人物検出部12は、検出された特定人物Mのステレオ画像をステレオマッチング処理することにより、特定人物Mの3次元位置を三角測量の原理で所定時間毎に推測して特定人物Mの3次元データを検出する。特定人物検出部12は、検出した特定人物Mの3次元位置データをヘッド駆動モータ制御部13およびホイールインモータ制御部15に出力する。   The specific person detection unit 12 detects the specific person M based on the image data sequentially output from the image generation unit 11. For example, the specific person detection unit 12 is a captured image based on the image data sequentially output from the image generation unit 11. The specific person M is detected by matching processing with the contour model of the specific person M stored in advance. The specific person detection unit 12 performs a stereo matching process on the detected stereo image of the specific person M, thereby estimating the three-dimensional position of the specific person M every predetermined time based on the principle of triangulation, and Detect data. The specific person detection unit 12 outputs the detected three-dimensional position data of the specific person M to the head drive motor control unit 13 and the wheel-in motor control unit 15.

ヘッド駆動モータ制御部13は、出力された特定人物Mの3次元位置データに基づき、特定人物Mがたとえば画像中央に位置するようにヘッド駆動モータ4の回転を制御してモビルロボットRのヘッドR2を回転させる。   The head drive motor control unit 13 controls the rotation of the head drive motor 4 so that the specific person M is positioned at the center of the image, for example, based on the output three-dimensional position data of the specific person M, and the head R2 of the mobile robot R. Rotate.

走行障害物検出部14は、画像生成部11から所定時間毎に順次出力された画像データに基づいて撮影画像のエッジ処理を行うことにより、撮影画像中に存在する障害物(他の人物や動物、構造物、設置物、車両等)を検出する。走行障害物検出部14は、検出された障害物のステレオ画像をステレオマッチング処理することにより、障害物の3次元位置を三角測量の原理で所定時間毎に推測して障害物の3次元データを検出する。走行障害物検出部14は、検出した障害物の3次元位置データをホイールインモータ制御部15および報知情報作成部16に出力する。   The traveling obstacle detection unit 14 performs an edge process on the captured image based on the image data sequentially output from the image generation unit 11 every predetermined time, whereby an obstacle (another person or animal existing in the captured image) is detected. , Structures, installations, vehicles, etc.). The traveling obstacle detection unit 14 performs stereo matching processing on the stereo image of the detected obstacle, thereby estimating the three-dimensional position of the obstacle every predetermined time based on the principle of triangulation, and obtaining the three-dimensional data of the obstacle. To detect. The traveling obstacle detection unit 14 outputs the detected three-dimensional position data of the obstacle to the wheel-in motor control unit 15 and the notification information creation unit 16.

ホイールインモータ制御部15は、出力された特定人物Mおよび障害物の3次元位置データに基づいて、モビルロボットRが特定人物Mの近傍において障害物を避けつつ特定人物Mを先導し、あるいは特定人物Mに追従するように、ホイールインモータ1A、1Bの回転を個別に制御して走行装置1の駆動車輪1C、1Dの回転方向および回転速度を個別に制御する。   The wheel-in motor control unit 15 guides or identifies the specific person M while avoiding the obstacle in the vicinity of the specific person M by the mobile robot R based on the output three-dimensional position data of the specific person M and the obstacle. In order to follow the person M, the rotation of the wheel-in motors 1A and 1B is individually controlled to individually control the rotation direction and the rotation speed of the drive wheels 1C and 1D of the traveling device 1.

報知情報作成部16は、特定人物検出部12から出力された特定人物Mおよび走行障害物検出部14から出力された障害物の3次元位置データに基づき、モビルロボットRが特定人物Mの近傍において障害物があるか否かを検出する。また、障害物が検出された場合には、スピーカ7に障害物がある旨を報知させるとともに、ディスプレイ2に表示させて、特定人物Mに障害物の存在を知らせる。   The notification information creation unit 16 detects that the mobile robot R is in the vicinity of the specific person M based on the three-dimensional position data of the specific person M output from the specific person detection unit 12 and the obstacle output from the traveling obstacle detection unit 14. Detect whether there is an obstacle. If an obstacle is detected, the speaker 7 is informed that there is an obstacle and is displayed on the display 2 to notify the specific person M of the presence of the obstacle.

表示制御部17は、報知情報作成部16から表示情報を受けてディスプレイ2に画像表示信号や表示制御信号を出力してディスプレイ2の表示制御を行う。   The display control unit 17 receives the display information from the notification information creation unit 16 and outputs an image display signal or a display control signal to the display 2 to perform display control of the display 2.

通信部18は、CCDカメラ6A、6Bで撮像した画像データを撮像時の時刻情報及び撮像時の位置情報と共に、図3に示す基地局Bへアンテナ8を介して送信する。その際、通信部18は、撮像時の位置情報を送信せず、画像データを撮像時の時刻情報と共に送信する場合もある。また、通信部18は、基地局Bのセンタ制御装置B1から送信される情報を受信し、受信した情報をデータベース20に記録する。   The communication unit 18 transmits the image data captured by the CCD cameras 6A and 6B to the base station B shown in FIG. 3 via the antenna 8 together with time information at the time of imaging and position information at the time of imaging. At that time, the communication unit 18 may transmit the image data together with the time information at the time of imaging without transmitting the position information at the time of imaging. Further, the communication unit 18 receives information transmitted from the center control device B1 of the base station B, and records the received information in the database 20.

図5に示すように、センタ制御装置B1は、通信部31、データベース32、特徴情報選択部33、および識別学習部34を備えている。また、センタ制御装置B1には、モニタB2、表示内容入力部B3、およびアンテナB4が接続されている。   As illustrated in FIG. 5, the center control device B1 includes a communication unit 31, a database 32, a feature information selection unit 33, and an identification learning unit 34. The center control device B1 is connected to a monitor B2, a display content input unit B3, and an antenna B4.

通信部31は、モビルロボットRから送信される画像データ、撮像時の時刻情報、撮像時の位置情報を受信し、それらの受信データや受信情報をデータベース32に出力する。データベース32は、画像データ、その撮像時の時刻情報及び撮像時の位置情報を記録する。このデータベース32は、表示内容入力部B23の指令信号を受けて所定のデータや情報をモニタB2に出力する。   The communication unit 31 receives image data transmitted from the mobile robot R, time information at the time of imaging, and position information at the time of imaging, and outputs the received data and reception information to the database 32. The database 32 records image data, time information at the time of imaging, and position information at the time of imaging. The database 32 receives a command signal from the display content input unit B23 and outputs predetermined data and information to the monitor B2.

特徴情報選択部33は、特定人物Mに関する特徴情報として特定人物Mを撮像した画像データを入力し、その画像データを撮像した時刻情報に基づいて特定人物Mを識別するための画像データを選択する。例えば、時刻情報に基づいて最新の画像データを所定数選択し、その選択した画像データを特定人物Mを識別するための画像データとして識別学習部34に出力する。その際、位置情報に基づいて選択する画像データをさらに選別することが好ましい。   The feature information selection unit 33 inputs image data obtained by capturing the specific person M as feature information regarding the specific person M, and selects image data for identifying the specific person M based on time information when the image data is captured. . For example, a predetermined number of the latest image data is selected based on the time information, and the selected image data is output to the identification learning unit 34 as image data for identifying the specific person M. At that time, it is preferable to further select image data to be selected based on the position information.

識別学習部34は、特徴情報選択部33に選択された画像データを入力し、その画像データを特定人物Mの識別に用いる識別情報として設定する。設定された識別情報は、データベース32に出力され、通信部31により車両Cに送信される。   The identification learning unit 34 inputs the selected image data to the feature information selection unit 33 and sets the image data as identification information used for identifying the specific person M. The set identification information is output to the database 32 and transmitted to the vehicle C by the communication unit 31.

図6に示すように、車両Cは、アンテナ41、通信部42、学習結果保存部43、および対象検出部44を備えて構成されている。通信部42は、アンテナ41を通じて基地局Bから送信される特定人物Mの識別情報を受信する。受信された識別情報は、学習結果保存部43に記録され、対象検出部44により行われる特定人物Mの識別に用いられる。   As shown in FIG. 6, the vehicle C includes an antenna 41, a communication unit 42, a learning result storage unit 43, and a target detection unit 44. The communication unit 42 receives the identification information of the specific person M transmitted from the base station B through the antenna 41. The received identification information is recorded in the learning result storage unit 43 and used for identification of the specific person M performed by the target detection unit 44.

次に本実施形態に係る人物識別システムの動作について説明する。   Next, the operation of the person identification system according to this embodiment will be described.

まず、本実施形態に係る人物識別システムにおけるモビルロボットRの動作について説明する。図7は、モビルロボットRの動作を示すフローチャートである。   First, the operation of the mobile robot R in the person identification system according to this embodiment will be described. FIG. 7 is a flowchart showing the operation of the mobile robot R.

図7のS10に示すように、まず撮像画像の読み込み処理が行われる。この処理は、CCD6A、6Bで撮像された撮像画像を読み込む処理である。その画像データは、画像生成部11に入力され、その撮像時の時刻情報と共にデータベース20に記録される。   As shown in S10 of FIG. 7, first, a captured image reading process is performed. This process is a process of reading a captured image captured by the CCDs 6A and 6B. The image data is input to the image generation unit 11 and recorded in the database 20 together with time information at the time of imaging.

そして、S12に移行し、位置検出処理が行われる。位置検出処理は、位置センサ9で検出された信号に基づいてモビルロボットRの位置を検出する処理である。検出された位置情報は、画像データ、その撮像時の時刻情報と共にデータベース20に記録される。   And it transfers to S12 and a position detection process is performed. The position detection process is a process for detecting the position of the mobile robot R based on the signal detected by the position sensor 9. The detected position information is recorded in the database 20 together with image data and time information at the time of imaging.

そして、S14に移行し、送信処理が行われる。送信処理は、データベース20に記録されている画像データ、時刻情報、位置情報を基地局Bに送信する処理である。そして、S16に移行し、追従制御処理が行われる。追従制御処理は、特定人物Mに追従してモビルロボットRを移動させる処理である。   And it transfers to S14 and a transmission process is performed. The transmission process is a process of transmitting image data, time information, and position information recorded in the database 20 to the base station B. And it transfers to S16 and a follow-up control process is performed. The follow-up control process is a process of moving the mobile robot R following the specific person M.

例えば、CCDカメラ6A、6Bの左右の撮像画像に基づくステレオ視によりモビルロボットRから特定人物Mの相対位置が検出され、モビルロボットRから特定人物Mまでの距離が所定範囲内になるようにホイールインモータ制御部15からホイールインモータ4に制御信号が出力され、特定人物Mに追従するようにモビルロボットRを移動させる。   For example, the relative position of the specific person M from the mobile robot R is detected by stereo vision based on the left and right captured images of the CCD cameras 6A and 6B, and the wheel is set so that the distance from the mobile robot R to the specific person M is within a predetermined range. A control signal is output from the in-motor control unit 15 to the wheel-in motor 4 to move the mobile robot R so as to follow the specific person M.

そして、S18に移行し、自己が移動したか否かが判断される。この判断処理は、位置センサ9の検出信号に基づいて自己の位置を検出し、その位置が移動したか否かによって行えばよい。   Then, the process proceeds to S18 where it is determined whether or not the self has moved. This determination process may be performed by detecting its own position based on the detection signal of the position sensor 9 and determining whether or not the position has moved.

S18にて自己が移動していないと判断された場合には、自己が移動したか否かの判断処理が継続される。一方、S18にて自己が移動していると判断された場合には、制御処理を終了する。この場合、再びS10の撮像画像の読み込み処理が実行され、制御処理が繰り返される。   If it is determined in S18 that the self has not moved, the process of determining whether or not the self has moved is continued. On the other hand, if it is determined in S18 that the user is moving, the control process is terminated. In this case, the captured image reading process of S10 is executed again, and the control process is repeated.

次に、本実施形態に係る人物識別システムにおける基地局Bの動作について説明する。図8は、基地局Bの動作を示すフローチャートである。   Next, the operation of the base station B in the person identification system according to this embodiment will be described. FIG. 8 is a flowchart showing the operation of the base station B.

図8のS20に示すように、まず受信処理が行われる。受信処理は、モビルロボットRからの信号送信があった場合にその信号を受信する処理である。この受信処理は、通信部31により行われ、受信信号からカメラ6A、6Bで撮像された画像データ、その撮像時の時刻情報及び位置情報が取得される。   As shown in S20 of FIG. 8, a reception process is first performed. The reception process is a process of receiving a signal when there is a signal transmission from the mobile robot R. This reception process is performed by the communication unit 31, and image data captured by the cameras 6A and 6B, time information and position information at the time of capturing are acquired from the received signal.

そして、S22に移行し、カメラ6A、6Bで撮像された画像データ、その撮像時の時刻情報及び位置情報がデータベース32に記録保存される。そして、S24に移行し、特徴情報選択処理が行われる。特徴情報選択処理は、データベース32に記録された画像データの中から特定人物Mを識別するための画像データを選択する処理である。例えば、データベース32に記録された画像データの中から時刻情報に基づいて最新の画像データが所定数選択される。   Then, the process proceeds to S <b> 22, and image data captured by the cameras 6 </ b> A and 6 </ b> B, time information and position information at the time of capturing are recorded and stored in the database 32. Then, the process proceeds to S24, and feature information selection processing is performed. The feature information selection process is a process of selecting image data for identifying the specific person M from the image data recorded in the database 32. For example, a predetermined number of the latest image data is selected from the image data recorded in the database 32 based on the time information.

そして、S26に移行し、識別学習処理が行われる。識別学習処理は、特徴情報選択処理により選択された画像データを特定人物Mの識別に用いる識別情報として設定する処理である。そして、S28に移行し、データ送信処理が行われる。データ送信処理は、識別情報として設定された画像データを送信処理である。例えば、通信部31からアンテナB4を通じて識別情報が送信される。このデータ送信処理を終えたら、制御処理を終了する。   And it transfers to S26 and an identification learning process is performed. The identification learning process is a process of setting the image data selected by the feature information selection process as identification information used for identifying the specific person M. Then, the process proceeds to S28, and a data transmission process is performed. The data transmission process is a process for transmitting image data set as identification information. For example, identification information is transmitted from the communication unit 31 through the antenna B4. When this data transmission process is completed, the control process is terminated.

次に、本実施形態に係る人物識別システムにおける車両Cの動作について説明する。   Next, the operation of the vehicle C in the person identification system according to this embodiment will be described.

図6において、車両Cは、アンテナ41及び通信部42を通じ、基地局Bから送信される識別情報を含む送信信号を受信する。受信された識別情報は、通信部42から学習結果保存部43に出力され、学習結果保存部43に記録保持される。対象検出部44は、学習結果保存部43に記録された識別情報を用いて識別対象が特定人物Mであるかを識別して特定人物Mの検出を行う。   In FIG. 6, the vehicle C receives a transmission signal including identification information transmitted from the base station B through the antenna 41 and the communication unit 42. The received identification information is output from the communication unit 42 to the learning result storage unit 43 and recorded and held in the learning result storage unit 43. The target detection unit 44 uses the identification information recorded in the learning result storage unit 43 to identify whether the identification target is the specific person M and detects the specific person M.

例えば、図示しないカメラが車両Cに設置され、そのカメラで撮像された画像に対し、特定人物Mの識別情報である画像データを画像テンプレートとしてパターンマッチングを行い、撮像画像に特定人物Mが撮影されているか否かを判定する。   For example, a camera (not shown) is installed in the vehicle C, pattern matching is performed on an image captured by the camera using image data that is identification information of the specific person M as an image template, and the specific person M is captured in the captured image. It is determined whether or not.

以上のように、本実施形態に係る人物識別システムによれば、特定人物Mを追尾するモビルロボットRによって特定人物Mの特徴情報を取得することにより、特定人物Mの特徴情報を頻繁に取得することができる。このため、特定人物Mの最新の特徴情報を取得することができ、その最新の特徴情報を識別情報として特定人物Mの識別に用いることによって特定人物Mの識別精度の向上を図ることができる。   As described above, according to the person identification system according to the present embodiment, the feature information of the specific person M is frequently acquired by acquiring the characteristic information of the specific person M by the mobile robot R that tracks the specific person M. be able to. Therefore, the latest feature information of the specific person M can be acquired, and the identification accuracy of the specific person M can be improved by using the latest feature information as identification information for identifying the specific person M.

なお、本実施形態では、基地局Bで識別学習した結果を車両Cに送信する場合について説明したが、その識別学習結果をモビルロボットRに送信してもよい。例えば、図9に示すように、モビルロボットRの制御装置5内に学習結果保存部43、対象検出部44が設けられる。そして、アンテナ8及び通信部18を通じて基地局Bから送信される識別情報を含む送信信号を受信し、その受信された識別情報を学習結果保存部43で記録保持し、学習結果保存部43に記録された識別情報を用いて識別対象が特定人物Mであるかを識別して特定人物Mの検出を行う。このような人物識別システムにおいても、上述した人物識別システムと同様な作用効果が得られる。
(第二実施形態)
In addition, although this embodiment demonstrated the case where the result of identification learning by the base station B was transmitted to the vehicle C, you may transmit the identification learning result to the mobile robot R. For example, as shown in FIG. 9, a learning result storage unit 43 and a target detection unit 44 are provided in the control device 5 of the mobile robot R. Then, a transmission signal including identification information transmitted from the base station B is received through the antenna 8 and the communication unit 18, and the received identification information is recorded and held in the learning result storage unit 43 and recorded in the learning result storage unit 43. The identification information is used to identify whether the identification target is the specific person M, and the specific person M is detected. Even in such a person identification system, the same operational effects as those of the person identification system described above can be obtained.
(Second embodiment)

次に本発明の第二実施形態に係る人物識別システムについて説明する。   Next, a person identification system according to the second embodiment of the present invention will be described.

本実施形態に係る人物識別システムは、上述した第一実施形態に係る人物識別システムとほぼ同様に構成され、車両Cの位置を加味して特定人物Mの特徴情報の選択を行う点で異なっている。   The person identification system according to the present embodiment is configured in substantially the same manner as the person identification system according to the first embodiment described above, and is different in that the feature information of the specific person M is selected in consideration of the position of the vehicle C. Yes.

本実施形態に係る人物識別システムにおいて、モビルロボットRは、図1〜4に示すものと同様なものが用いられる。基地局Bは、図5に示すものと同様な構成のものが用いられるが、特徴情報選択部33により実行される特徴情報選択処理が車両Cの位置情報を加味して特定人物Mの特徴情報を選択する。   In the person identification system according to the present embodiment, a mobile robot R similar to that shown in FIGS. The base station B has the same configuration as that shown in FIG. 5, but the feature information selection process executed by the feature information selection unit 33 takes into account the position information of the vehicle C and the feature information of the specific person M Select.

例えば、データベース32に記録された特定人物Mの特徴情報、例えば画像データの中から特定人物Mを識別するための特徴情報を選択する際に、モビルロボットRの位置情報と車両Cの位置情報に基づいてモビルロボットRと車両Cの距離が設定距離内であるか否かを判断し、その距離が設定距離内でない場合にはモビルロボットRから送信される特定人物Mの特徴情報を選択対象から除外する。そして、除外された以外の特徴情報について、特徴情報を取得した時刻情報に基づいて最新の特徴情報を所定数選択する。   For example, when selecting the feature information of the specific person M recorded in the database 32, for example, the feature information for identifying the specific person M from the image data, the position information of the mobile robot R and the position information of the vehicle C are used. Based on this, it is determined whether the distance between the mobile robot R and the vehicle C is within the set distance. If the distance is not within the set distance, the feature information of the specific person M transmitted from the mobile robot R is selected from the selection target. exclude. Then, for feature information other than excluded, a predetermined number of the latest feature information is selected based on the time information when the feature information is acquired.

この本実施形態に係る人物識別システムの車両Cとしては、図10、11に示すものが用いられる。図10は車両Cの構成概要を示すブロック図であり、図11は、車両Cにおける位置情報送信処理を示すフローチャートである。   As the vehicle C of the person identification system according to this embodiment, the vehicle shown in FIGS. 10 and 11 is used. FIG. 10 is a block diagram showing an outline of the configuration of the vehicle C, and FIG. 11 is a flowchart showing position information transmission processing in the vehicle C.

図10に示すように、車両Cは、アンテナ41、通信部42、学習結果保存部43、対象検出部44に加え、位置センサ45を備えている。位置センサ45は、車両Cの位置を検出するセンサであり、例えばGPS装置が用いられる。位置センサ45により検出された車両Cの位置情報は、通信部42に出力される。そして、その位置情報は、通信部42及びアンテナ41を通じて基地局Bに送信される。   As shown in FIG. 10, the vehicle C includes a position sensor 45 in addition to the antenna 41, the communication unit 42, the learning result storage unit 43, and the target detection unit 44. The position sensor 45 is a sensor that detects the position of the vehicle C, and for example, a GPS device is used. The position information of the vehicle C detected by the position sensor 45 is output to the communication unit 42. Then, the position information is transmitted to the base station B through the communication unit 42 and the antenna 41.

図11に示すように、車両Cの位置情報送信処理は、まず車両Cの位置検出処理が行われる(S40)。この位置検出処理は、位置センサ45により車両Cの位置を検出させる処理である。位置センサ45により検出された位置情報は、通信部42などに送信情報の一部として保存記録される。   As shown in FIG. 11, in the position information transmission process of the vehicle C, the position detection process of the vehicle C is first performed (S40). This position detection process is a process in which the position sensor 45 detects the position of the vehicle C. The position information detected by the position sensor 45 is stored and recorded as a part of transmission information in the communication unit 42 or the like.

そして、S42に移行し、送信処理が行われる。送信処理は、車両Cの位置情報を基地局Bに送信する処理である。そして、移動距離算出処理、経過時間計測処理が行われる(S44、S46)。移動処理算出処理は、位置検出してから車両Cが移動した距離Dを算出する処理である。経過時間計測処理は、位置検出時からの経過時間Tを計測する処理である。   And it transfers to S42 and a transmission process is performed. The transmission process is a process of transmitting the position information of the vehicle C to the base station B. Then, a movement distance calculation process and an elapsed time measurement process are performed (S44, S46). The movement process calculation process is a process of calculating the distance D that the vehicle C has moved after detecting the position. The elapsed time measurement process is a process of measuring an elapsed time T from the time of position detection.

そして、S48に移行し、車両の移動距離Dが規定値D1以上であり、または経過時間Tが規定値T1以上であるかが判断される。車両の移動距離Dが規定値D1以上であり、または経過時間Tが規定値T1以上であると判断された場合には、S40に戻り位置検出処理が再び行われる。一方、車両の移動距離Dが規定値D1以上でなく、かつ経過時間Tが規定値T1以上でないと判断された場合には、制御処理を終了する。   Then, the process proceeds to S48, where it is determined whether the moving distance D of the vehicle is equal to or greater than a specified value D1, or whether the elapsed time T is equal to or greater than the specified value T1. If it is determined that the moving distance D of the vehicle is greater than or equal to the specified value D1 or the elapsed time T is greater than or equal to the specified value T1, the process returns to S40 and the position detection process is performed again. On the other hand, when it is determined that the moving distance D of the vehicle is not equal to or greater than the specified value D1 and the elapsed time T is not equal to or greater than the specified value T1, the control process is terminated.

以上のように、本実施形態に係る人物識別システムによれば、第一実施形態に係る人物識別システムと同様に最新の特徴情報を識別情報として特定人物Mの識別に用いることによって特定人物Mの識別精度の向上を図ることができるという効果に加え、特徴情報選択処理を迅速に行えるという効果を奏する。   As described above, according to the person identification system according to the present embodiment, the latest feature information is used as identification information for identification of the specific person M, as in the person identification system according to the first embodiment. In addition to the effect that the identification accuracy can be improved, the feature information selection process can be performed quickly.

すなわち、本実施形態に係る人物識別システムによれば、特定人物Mの特徴情報を取得した時刻情報及び位置情報に基づいて特定人物Mを識別するための特徴情報を選択することにより、特徴情報を取得してから経過時間が所定時間より長い特徴情報や特徴情報を取得した地点から特定人物Mを識別する地点が所定距離より遠い特徴情報を選択しないようにすることができる。これにより、特徴情報を選択する際に選択候補となる特徴情報を削減でき、選択処理が迅速に行える。また、有効な特徴情報のみを選択できるため、特定人物Mの識別精度の向上を図ることができる。   That is, according to the person identification system according to the present embodiment, the feature information is selected by selecting the feature information for identifying the specific person M based on the time information and the position information when the characteristic information of the specific person M is acquired. It is possible not to select feature information whose elapsed time is longer than a predetermined time after acquisition or feature information where the specific person M is identified farther than a predetermined distance from the point where the feature information is acquired. Thereby, the feature information which becomes a selection candidate when selecting the feature information can be reduced, and the selection process can be performed quickly. Further, since only effective feature information can be selected, the identification accuracy of the specific person M can be improved.

なお、上述した各実施形態は、本発明に係る人物識別システムの一例を示すものである。本発明に係る人物識別システムは、これらの実施形態に係る人物識別システムに限られるものではなく、各請求項に記載した要旨を変更しない範囲で、実施形態に係る人物識別システムを変形し、又は他のものに適用したものであってもよい。   Each embodiment mentioned above shows an example of a person identification system concerning the present invention. The person identification system according to the present invention is not limited to the person identification system according to these embodiments, and the person identification system according to the embodiments may be modified or changed without changing the gist described in each claim, or It may be applied to other things.

本発明の第一実施形態に係る人物識別システムにおけるモビルロボットRと特定人物Mを模式的に示す平面図である。It is a top view which shows typically the mobile robot R and the specific person M in the person identification system which concerns on 1st embodiment of this invention. 第一実施形態に係る人物識別システムにおけるモビルロボットRの側面図である。It is a side view of the mobile robot R in the person identification system which concerns on 1st embodiment. 第一実施形態に係る人物識別システムにおけるモビルロボットR、基地局B及び車両Cの通信状態の説明図である。It is explanatory drawing of the communication state of the mobile robot R, the base station B, and the vehicle C in the person identification system which concerns on 1st embodiment. 図2のモビルロボットRにおける制御装置の構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the control apparatus in the mobile robot R of FIG. 第一実施形態に係る人物識別システムの基地局Bの構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the base station B of the person identification system which concerns on 1st embodiment. 第一実施形態に係る人物識別システムの車両Cの構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the vehicle C of the person identification system which concerns on 1st embodiment. 図4のモビルロボットRの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the mobile robot R of FIG. 図5の基地局Bの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the base station B of FIG. 第一実施形態に人物識別システムの変形例を示す説明図である。It is explanatory drawing which shows the modification of a person identification system in 1st embodiment. 本発明の第二実施形態に係る人物識別システムの車両Cの構成概要を示すブロック図である。It is a block diagram which shows the structure outline | summary of the vehicle C of the person identification system which concerns on 2nd embodiment of this invention. 図10の車両Cの位置情報送信処理を示すフローチャートである。It is a flowchart which shows the positional information transmission process of the vehicle C of FIG.

符号の説明Explanation of symbols

1…走行装置、2…ディスプレイ、5…制御装置、6A、6B…カメラ、7…スピーカ、8…アンテナ、9…位置センサ、B…基地局、C…車両、M…特定人物、R…モビルロボット(自律移動体)。   DESCRIPTION OF SYMBOLS 1 ... Traveling apparatus, 2 ... Display, 5 ... Control apparatus, 6A, 6B ... Camera, 7 ... Speaker, 8 ... Antenna, 9 ... Position sensor, B ... Base station, C ... Vehicle, M ... Specific person, R ... Mobile Robot (autonomous moving body).

Claims (2)

特定人物の識別を行う人物識別システムであって、
前記特定人物を追尾して移動し、前記特定人物の識別に用いる特徴情報を取得し、その特徴情報をその取得時の時刻情報と共に記録する自律移動体と、
前記自律移動体により取得された特徴情報を入力し、前記特徴情報を取得した時刻情報に基づいて前記特定人物を識別するための特徴情報を選択する選択手段と、
前記選択手段に選択された特徴情報を前記特定人物の識別に用いる識別情報として設定する識別学習手段と、
を備えた人物識別システム。
A person identification system for identifying a specific person,
An autonomous mobile that tracks and moves the specific person, acquires characteristic information used to identify the specific person, and records the characteristic information together with time information at the time of acquisition;
Selection means for inputting feature information acquired by the autonomous mobile body and selecting feature information for identifying the specific person based on time information when the feature information is acquired;
Identification learning means for setting the feature information selected by the selection means as identification information used for identifying the specific person;
A person identification system.
前記自律移動体は、前記特徴情報及び前記時刻情報と共に前記特徴情報の取得時の位置情報を記録し、
前記選択手段は、前記特徴情報を取得した時刻情報及び位置情報に基づいて前記特定人物を識別するための特徴情報を選択すること、
を特徴とする請求項1に記載の人物識別システム。
The autonomous mobile body records the position information at the time of acquisition of the feature information together with the feature information and the time information,
The selection means selects feature information for identifying the specific person based on time information and position information obtained from the feature information;
The person identification system according to claim 1.
JP2006188096A 2006-07-07 2006-07-07 Personal identification system Pending JP2008012635A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006188096A JP2008012635A (en) 2006-07-07 2006-07-07 Personal identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006188096A JP2008012635A (en) 2006-07-07 2006-07-07 Personal identification system

Publications (1)

Publication Number Publication Date
JP2008012635A true JP2008012635A (en) 2008-01-24

Family

ID=39070174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006188096A Pending JP2008012635A (en) 2006-07-07 2006-07-07 Personal identification system

Country Status (1)

Country Link
JP (1) JP2008012635A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017200821A (en) * 2017-07-24 2017-11-09 みこらった株式会社 Protection apparatus and protection system
JP2017222350A (en) * 2017-07-24 2017-12-21 みこらった株式会社 Protection device and protection system
JP6393433B1 (en) * 2018-02-09 2018-09-19 株式会社ビコー Information processing apparatus, information processing method, and program
JP2020502646A (en) * 2017-06-15 2020-01-23 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. Mobile power supply for outdoor power supply
JP2021068025A (en) * 2019-10-18 2021-04-30 トヨタ自動車株式会社 Information processing device, program and control method
JP2022515591A (en) * 2018-11-29 2022-02-21 ベイジン センスタイム テクノロジー デベロップメント シーオー.,エルティーディー 3D detection method, device, medium and device of target object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175730A (en) * 1997-12-05 1999-07-02 Omron Corp Human body detection and trace system
JP2002312035A (en) * 2001-04-16 2002-10-25 Toshiba Tec Corp Autonomous traveling robot
JP2004302645A (en) * 2003-03-28 2004-10-28 Sony Corp Face registration device, face registration method, recording medium and robot device
JP2004299025A (en) * 2003-04-01 2004-10-28 Honda Motor Co Ltd Mobile robot control device, mobile robot control method and mobile robot control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175730A (en) * 1997-12-05 1999-07-02 Omron Corp Human body detection and trace system
JP2002312035A (en) * 2001-04-16 2002-10-25 Toshiba Tec Corp Autonomous traveling robot
JP2004302645A (en) * 2003-03-28 2004-10-28 Sony Corp Face registration device, face registration method, recording medium and robot device
JP2004299025A (en) * 2003-04-01 2004-10-28 Honda Motor Co Ltd Mobile robot control device, mobile robot control method and mobile robot control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020502646A (en) * 2017-06-15 2020-01-23 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. Mobile power supply for outdoor power supply
JP2017200821A (en) * 2017-07-24 2017-11-09 みこらった株式会社 Protection apparatus and protection system
JP2017222350A (en) * 2017-07-24 2017-12-21 みこらった株式会社 Protection device and protection system
JP6393433B1 (en) * 2018-02-09 2018-09-19 株式会社ビコー Information processing apparatus, information processing method, and program
JP2019139467A (en) * 2018-02-09 2019-08-22 株式会社ビコー Information processing device, information processing method and program
JP2022515591A (en) * 2018-11-29 2022-02-21 ベイジン センスタイム テクノロジー デベロップメント シーオー.,エルティーディー 3D detection method, device, medium and device of target object
JP2021068025A (en) * 2019-10-18 2021-04-30 トヨタ自動車株式会社 Information processing device, program and control method
JP7156242B2 (en) 2019-10-18 2022-10-19 トヨタ自動車株式会社 Information processing device, program and control method

Similar Documents

Publication Publication Date Title
KR101776823B1 (en) A mobile robot localization method and system via indoor surveillance cameras
JP6169544B2 (en) Driving support control device
JP6452801B2 (en) Method and apparatus for moving a car to a target position
CN105916758A (en) Method for autonomous parking of a vehicle, driver assistance device for carrying out the method, and vehicle comprising the driver assistance device
JP6047083B2 (en) Parking assistance system
US11124079B2 (en) Autonomous alignment of a vehicle and a wireless charging device
JP2008012635A (en) Personal identification system
JP2007035031A (en) Mobile body capable of video recognition, and mobile body guidance system including the same
JP2004299025A (en) Mobile robot control device, mobile robot control method and mobile robot control program
JP2007199965A (en) Autonomous mobile device
JP4368317B2 (en) Mobile robot
JP4940698B2 (en) Autonomous mobile robot
JP2010288112A (en) Self-position estimation device, and self-position estimation method
JP7274970B2 (en) Tracking target identification system and tracking target identification method
JP2017146945A (en) Lead robot
JP2010061484A (en) Mobile object and recovery method from position prediction error state of mobile object
JP2009237851A (en) Mobile object control system
CN106874887A (en) Based on the farm machinery navigation control method that farm environment is perceived
JP2006350601A (en) Moving monitoring robot
JP2008012636A (en) Personal identification system
CN115053279A (en) Driving assistance device, vehicle, and driving assistance method
JP2007229817A (en) Autonomous mobile robot
CN107862902A (en) A kind of auxiliary parking system based on image analysing computer and contrast
JP2007286740A (en) Autonomous movable body
US20230249675A1 (en) Method for ascertaining a replacement trajectory, computer program product, parking assistance system and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090609

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426