JP2006048666A - Method and device for accompanying object person of mobile object - Google Patents

Method and device for accompanying object person of mobile object Download PDF

Info

Publication number
JP2006048666A
JP2006048666A JP2005197239A JP2005197239A JP2006048666A JP 2006048666 A JP2006048666 A JP 2006048666A JP 2005197239 A JP2005197239 A JP 2005197239A JP 2005197239 A JP2005197239 A JP 2005197239A JP 2006048666 A JP2006048666 A JP 2006048666A
Authority
JP
Japan
Prior art keywords
subject
walking
foot
target person
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005197239A
Other languages
Japanese (ja)
Other versions
JP4440174B2 (en
Inventor
Koshu Goto
孝周 後藤
Tamao Okamoto
球夫 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005197239A priority Critical patent/JP4440174B2/en
Publication of JP2006048666A publication Critical patent/JP2006048666A/en
Application granted granted Critical
Publication of JP4440174B2 publication Critical patent/JP4440174B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for accompanying an object person of a mobile object by which walk is easily predicted irrespective of an age or motion of the object person and without equipping any special tool, etc. and the walk of the object person is tracked. <P>SOLUTION: In the method and device for accompanying the object person where the mobile object 301 automatically moves with the object person 101, control is performed so that the mobile object 301 moves along a walk path of the object person 101 by detecting a walk state of the object person 101, detecting walk speed and walk path of the object person 101 and predicting a walk prediction area of the object person 101 based on information about the detected walk state, walk speed and path. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、対象者の追跡などさせる同行用移動体を用いて対象者を自動追跡するための移動体の対象者同行方法及び移動体用対象者同行装置、具体的には、歩行追跡方法、及び歩行追跡装置に関するものである。   The present invention relates to a moving subject subject accompaniment method and a moving subject subject accompaniment device for automatically tracking a subject using a companion moving body for tracking the subject, specifically a walking tracking method, And a gait tracking device.

従来の追跡方法及び装置として、画像入力装置を用い、人物の移動を追跡するようにしたものがある(特許文献1参照)。   As a conventional tracking method and apparatus, there is an apparatus that uses an image input device to track the movement of a person (see Patent Document 1).

特許文献1に記載された追跡装置(徘徊老人用追尾ロボット)について図30を用いて説明する。   The tracking device (tracking robot for elderly people) described in Patent Document 1 will be described with reference to FIG.

図30において、徘徊老人用追尾ロボット1は、GPS受信機2と、地図データベース3と、位置検出手段4と、通報手段5と、TVカメラ6と、画像圧縮手段7と、識別手段8と、異常行動検出手段9と、障害物検出センサ10と、回避運動制御手段11と、モータ12と、盗難対策部13とを備えている。   In FIG. 30, the tracking robot 1 for elderly people includes a GPS receiver 2, a map database 3, a position detection means 4, a notification means 5, a TV camera 6, an image compression means 7, an identification means 8, An abnormal behavior detecting means 9, an obstacle detecting sensor 10, an avoidance movement control means 11, a motor 12, and a theft countermeasure section 13 are provided.

前記ロボット1における動作を概略説明すると、このロボット1は、ロボット1が追跡する対象者である徘徊老人の画像情報を予め識別手段8の画像メモリに記憶しており、TVカメラ6からの対象者の撮影画像を受けて画像処理することにより、対象者の頭の高さ、腰の曲がり具合、歩き方、服装などに基づいて対象者を識別し、識別手段8からの対象者を特定する識別信号に基づいて、TVカメラ6の撮影方向を制御し、自動追跡をして撮影を続ける。あるいは、対象者に小型送信機を取り付けて、この発信電波を受信してロボット1が対象者を追跡するようにしたものである。
特開平11−73582号公報
An outline of the operation of the robot 1 will be described. The robot 1 stores image information of an elderly person who is a subject to be tracked by the robot 1 in an image memory of the identification means 8 in advance. The subject is identified by identifying the subject based on the height of the subject's head, the degree of bending of the waist, the way of walking, the clothes, etc. Based on the signal, the shooting direction of the TV camera 6 is controlled, and automatic tracking is performed to continue shooting. Alternatively, a small transmitter is attached to the subject, and the robot 1 tracks the subject by receiving this outgoing radio wave.
JP-A-11-73582

しかしながら、前記従来の技術では、対象者を移動速度の遅い徘徊老人とし、識別あるいは追跡能力も限定されている。また対象者の移動を予測することができないため、識別ができない場合もあり、特に対象者が移動方向を突然変更した場合には、対象者を識別することができず、これに対応するため対象者に小型送信機を取り付けることが必要であり、このため電波状況が悪い場合は、対象者を見失ってしまうという課題がある。   However, in the prior art, the subject is an elderly person with a slow moving speed, and the identification or tracking ability is limited. In addition, since the movement of the target person cannot be predicted, the target person may not be identified. Especially when the target person suddenly changes the direction of movement, the target person cannot be identified, and the target is not covered. Therefore, it is necessary to attach a small transmitter to the person. For this reason, when the radio wave condition is bad, there is a problem that the target person is lost.

さらに、人物全体を画像処理することによって追跡を行っているため、その処理やアルゴリズムが複雑になるという課題がある。   Furthermore, since tracking is performed by image processing of the entire person, there is a problem that the processing and algorithm become complicated.

そこで本発明は、前記従来技術の課題を解決し、対象者の年齢や動きに関わらず、また特別な道具などを具備させずに、容易に歩行を予測し、対象者の歩行を追跡することができるようにした移動体の対象者同行方法及び移動体用対象者同行装置を提供することを目的とする。   Accordingly, the present invention solves the above-described problems of the prior art, and easily predicts walking and tracks the walking of the subject regardless of the age and movement of the subject and without providing special tools. It is an object of the present invention to provide a mobile object accompanying method and a mobile object accompanying apparatus that can perform the above.

前記目的を達成するため、本発明は以下のように構成する。   In order to achieve the above object, the present invention is configured as follows.

本発明の第1態様によれば、対象者の移動に従って移動体が移動する移動体の対象者同行方法であって、
前記対象者の足の着地状態を検知し、
前記対象者の歩行方向を検知し、
検知された前記足の着地状態と前記方向の情報に基づいて、前記対象者の歩行予想範囲を予想し、予想された歩行予想範囲内に前記対象者の歩行による足の着地状態を検知して、前記移動体が前記対象者の歩行方向に沿って移動するように制御する移動体の対象者同行方法を提供する。
According to the first aspect of the present invention, there is provided a method for accompanied by a moving object in which the moving object moves according to the movement of the object,
Detecting the landing state of the subject's feet,
Detecting the walking direction of the subject,
Based on the detected landing state of the foot and the information on the direction, the predicted walking range of the target person is predicted, and the landing state of the foot due to the walking of the target person is detected within the predicted walking predicted range. Provided is a method for moving a moving object along with a subject who controls the moving body so as to move along the walking direction of the subject.

本発明の第2態様によれば、前記対象者の歩行予想範囲は、前記対象者の着地している足の座標を中心とし、かつ前記対象者の歩幅から求められた半径を持つ、前記対象者の前記歩行方向に向けられた扇形の範囲である請求項1に記載の移動体の対象者同行方法を提供する。   According to the second aspect of the present invention, the predicted walking range of the subject is centered on the coordinates of the foot of the subject landing and has a radius determined from the stride of the subject. The method according to claim 1, wherein the method is a fan-shaped range directed in the walking direction of the person.

本発明の第3態様によれば、前記足の着地状態を検知するとき、前記対象者を判別し、前記対象者の両足の位置座標を検知する第1の態様に記載の移動体の対象者同行方法を提供する。   According to the third aspect of the present invention, when the landing state of the foot is detected, the subject is identified, and the subject of the moving body according to the first aspect is configured to detect the position coordinates of both feet of the subject. Provide an accompanying method.

本発明の第4態様によれば、前記足の着地状態を検知するとき、前記対象者の両足を検知し、前記対象者の前記両足の位置座標を検知する第1の態様に記載の移動体の対象者同行方法を提供する。   According to a fourth aspect of the present invention, when detecting the landing state of the foot, the moving body according to the first aspect, which detects both feet of the subject and detects the position coordinates of the feet of the subject. Provide a method to accompany the target audience.

本発明の第5態様によれば、前記両足の位置座標を検知するとき、一定時間以上同じ位置座標にある前記対象者の足を着地している足と判断し、前記対象者の前記着地している足の位置座標を記憶する第4の態様に記載の移動体の対象者同行方法を提供する。   According to the fifth aspect of the present invention, when the position coordinates of both feet are detected, it is determined that the foot of the subject is in the same position coordinates for a certain time or more, and the landing of the subject is made. A moving object subject accompanying method according to a fourth aspect of storing the position coordinates of a moving foot is provided.

本発明の第6態様によれば、前記一定時間以上同じ位置座標にある前記対象者の前記足を判断するとき、前記足が同じ位置座標にある時間を0.1秒より大に設定している第5の態様に記載の移動体の対象者同行方法を提供する。   According to the sixth aspect of the present invention, when determining the foot of the subject who is at the same position coordinate for the predetermined time or longer, the time that the foot is at the same position coordinate is set to be greater than 0.1 seconds. A moving subject accompanying method according to the fifth aspect is provided.

本発明の第7態様によれば、前記両足の位置座標を検知するとき、地面に着地している前記対象者の前記足の位置座標を検知し、前記対象者のその足の位置座標を記憶する第4の態様に記載の移動体の対象者同行方法を提供する。   According to the seventh aspect of the present invention, when detecting the position coordinates of the both feet, the position coordinates of the feet of the subject landing on the ground are detected, and the position coordinates of the feet of the subject are stored. A moving subject accompanying method according to the fourth aspect is provided.

本発明の第8態様によれば、前記移動体が前記対象者の歩行方向に沿って移動するように制御するとき、既に検知されている前記対象者の前記両足の位置情報から前記対象者の両足を結ぶ線分の中点と、次の一歩における前記対象者の両足を結ぶ線分の中点とを繋げることにより前記移動体の移動方向を生成し、生成された前記移動体の移動方向により前記移動体を移動するように制御する第1の態様に記載の移動体の対象者同行方法を提供する。   According to the eighth aspect of the present invention, when the moving body is controlled to move along the walking direction of the subject, the position of the subject is determined based on the position information of the both feet of the subject already detected. A moving direction of the moving body is generated by connecting a midpoint of a line segment connecting both feet and a midpoint of a line segment connecting both feet of the subject in the next step, and the generated moving direction of the moving body The moving object subject accompanying method according to the first aspect of controlling the moving body to move is provided.

本発明の第9態様によれば、前記移動体を移動するように制御するとき、前記移動体を前記対象者よりも先行させて歩行方向を移動させる第1の態様に記載の移動体の対象者同行方法を提供する。   According to a ninth aspect of the present invention, the object of the moving body according to the first aspect, wherein when the moving body is controlled to move, the moving body is moved in the walking direction with the moving body preceding the subject. Provide a method for accompanies.

本発明の第10態様によれば、前記移動体を移動するように制御するとき、前記移動体を前記対象者よりも後行させて歩行方向を移動させる第1の態様に記載の移動体の対象者同行方法を提供する。   According to a tenth aspect of the present invention, when the moving body is controlled to move, the moving body according to the first aspect is configured to move the walking direction by moving the moving body behind the subject. Provide a method to accompany the subject.

本発明の第11態様によれば、対象者の移動に従って移動体が移動する移動体用対象者同行装置であって、
前記対象者の足の着地状態である歩行状態を検知する歩行状態検知手段と、
前記対象者の歩行方向を検知する歩行方向検知手段と、
検知された前記足の着地状態と前記方向の情報に基づいて、前記対象者の歩行予想範囲を予想し、予想された歩行予想範囲内に前記対象者の歩行による足の着地状態を検知して、前記移動体が前記対象者の歩行方向に沿って移動するように制御する制御手段とを有する移動体用対象者同行装置を提供する。
According to an eleventh aspect of the present invention, there is provided a moving subject accompanying apparatus for moving a moving body according to the movement of the subject,
Walking state detection means for detecting a walking state that is a landing state of the subject's feet;
Walking direction detecting means for detecting the walking direction of the subject,
Based on the detected landing state of the foot and the information on the direction, the predicted walking range of the target person is predicted, and the landing state of the foot due to the walking of the target person is detected within the predicted walking predicted range. There is provided a moving object subject accompanying apparatus having control means for controlling the moving body to move along the walking direction of the object person.

本発明の第12態様によれば、前記対象者の歩行予想範囲は、前記対象者の着地している足の座標を中心とし、かつ前記対象者の歩幅から求められた半径を持つ、前記対象者の前記歩行方向に向けられた扇形の範囲である第11の態様に記載の移動体用対象者同行装置を提供する。   According to a twelfth aspect of the present invention, the predicted walking range of the target person is centered on the coordinates of the foot on which the target person is landing, and has a radius determined from the stride of the target person. An object accompaniment device for a moving body according to an eleventh aspect, which is a fan-shaped range directed in the walking direction of a person.

本発明の第13態様によれば、前記歩行状態検知手段は、前記対象者を判別する対象者判断部と、前記対象者の両足の位置座標を検知する両足位置検知手段とを有する第11の態様に記載の移動体用対象者同行装置を提供する。   According to a thirteenth aspect of the present invention, an eleventh aspect of the present invention is the eleventh aspect, wherein the walking state detection means includes an object person determination unit for determining the object person and both foot position detection means for detecting the position coordinates of both feet of the object person. Provided is a moving object subject accompanying apparatus according to an aspect.

本発明の第14態様によれば、前記歩行状態検知手段は、前記対象者の両足の位置座標を検知する両足位置検知手段とを有する第11の態様に記載の移動体用対象者同行装置を提供する。   According to a fourteenth aspect of the present invention, in the eleventh aspect, the walking state detecting means includes both foot position detecting means for detecting position coordinates of both feet of the subject. provide.

本発明の第15態様によれば、前記両足位置検知手段は、一定時間以上同じ位置座標にある前記対象者の前記足を着地している足と判断する手段と、前記対象者の前記足の位置座標を記憶する記憶部とを有する第14の態様に記載の移動体用対象者同行装置を提供する。   According to the fifteenth aspect of the present invention, the both foot position detecting means determines that the foot of the subject is in the same position coordinates for a predetermined time or more, and determines the foot of the subject. A moving object subject companion apparatus according to a fourteenth aspect having a storage unit for storing position coordinates is provided.

本発明の第16態様によれば、前記一定時間以上同じ位置座標にある前記対象者の前記足を判断する手段において、前記足が同じ位置座標にある時間を0.1秒より大に設定している第15の態様に記載の移動体用対象者同行装置を提供する。   According to the sixteenth aspect of the present invention, in the means for determining the foot of the subject who is at the same position coordinate for the predetermined time or more, the time that the foot is at the same position coordinate is set to be greater than 0.1 second. The moving object subject accompanying apparatus according to the fifteenth aspect is provided.

本発明の第17態様によれば、前記両足位置検知手段は、地面に着地している前記対象者の前記足を判断する手段と、前記対象者の前記足の位置座標を記憶する記憶部とを有する第15の態様に記載の移動体用対象者同行装置を提供する。   According to a seventeenth aspect of the present invention, the both foot position detecting means includes means for judging the foot of the subject person who has landed on the ground, and a storage unit for storing the position coordinates of the foot of the subject person. A moving object subject accompanying apparatus according to the fifteenth aspect is provided.

本発明の第18態様によれば、前記歩行方向検知手段は、既に検知されている前記対象者の前記両足の位置座標から前記対象者の両足を結ぶ線分の中点と、次の一歩における前記対象者の両足を結ぶ線分の中点とを繋げることにより前記移動体の移動方向を生成する手段を有する第12の態様に記載の移動体用対象者同行装置を提供する。   According to an eighteenth aspect of the present invention, the walking direction detecting means includes a midpoint of a line segment connecting both feet of the subject from the position coordinates of the feet of the subject already detected, and the next step. A moving object subject accompanying apparatus according to a twelfth aspect, comprising means for generating a moving direction of the moving body by connecting a midpoint of a line segment connecting both feet of the object person.

本発明の第19態様によれば、前記制御手段は、前記移動体を前記対象者よりも先行させて、歩行方向を移動させる手段を有する第12の態様に記載の移動体用対象者同行装置を提供する。   According to a nineteenth aspect of the present invention, the control means has the means for moving the moving object in the twelfth aspect having means for moving the walking direction in advance of the moving object. I will provide a.

本発明の第20態様によれば、前記制御手段は、前記移動体を前記対象者よりも後行させて、歩行方向を移動させる手段を有する第12の態様に記載の移動体用対象者同行装置を提供する。   According to a twentieth aspect of the present invention, the control means accompanies the moving object subject according to the twelfth aspect, wherein the controlling means has means for moving the moving body behind the subject and moving the walking direction. Providing equipment.

この構成によって、対象者の歩行状態と歩行速度と経路との情報を取得して、対象者の移動経路を特定し、かつ予測することにより、対象者の移動経路に対する先行追跡あるいは後行追跡を行うことができる。   With this configuration, it is possible to obtain information on the walking state, walking speed, and route of the target person, identify and predict the target person's moving path, and perform preceding tracking or trailing tracking on the target person's moving path. It can be carried out.

本発明の移動体の対象者同行方法及び移動体用対象者同行装置によれば、対象者の歩行予想範囲を予想し、予想された範囲に対象者が歩行を続けていることを確認しながら、対象者の歩行経路に沿って移動体を追跡させるようにしているため、追従移動の突発的な動きに関係なく、移動体を、容易かつ確実に対象者の移動経路に沿って移動させることができるようになる。   According to the mobile subject accompanying method and the mobile subject accompanying device of the present invention, the predicted walking range of the target person is predicted, and it is confirmed that the target person continues walking in the predicted range. Since the moving body is tracked along the walking path of the target person, the moving body can be easily and reliably moved along the moving path of the target person regardless of the sudden movement of the follow-up movement. Will be able to.

以下に、本発明の一実施形態に係る移動体の対象者同行方法及び移動体用対象者同行装置の一例である歩行追跡型移動体及びその移動体を使用しての対象者歩行追跡方法及び装置を図1〜図27に基づいて説明する。なお、図面において同じ部品については同じ参照符号を付している。   The following is a walking object type tracking method that is an example of a moving object subject accompaniment method and moving object object accompaniment apparatus according to an embodiment of the present invention, and an object person walking tracking method using the moving object. The apparatus will be described with reference to FIGS. In the drawings, the same components are denoted by the same reference numerals.

図1Aは本実施形態である歩行追跡装置と、歩行追跡装置を搭載した移動体の概略構成を示すブロック図、図1Bは本実施形態で用いる座標系であって、101は追跡される対象者であり、102は対象者101の歩行状態を示す矢印であり、301は移動体である。図2は本実施形態である歩行追跡装置が搭載された移動体による対象者歩行追跡方法の処理ステップに係るフローチャート、図3〜図7は図2の各ステップについての詳細のフローチャート、さらに図8,図9は歩行開始と歩行の予測についてのフローチャート、図3,図10〜図27は本実施形態における自動歩行追跡の具体例を説明するための説明図、図28,図29は本発明の他の実施形態における対象者の歩行速度と方向との決定方法の説明図である。   FIG. 1A is a block diagram showing a schematic configuration of a walking tracking device according to the present embodiment and a moving body equipped with the walking tracking device, FIG. 1B is a coordinate system used in the present embodiment, and 101 is a subject to be tracked 102 is an arrow indicating the walking state of the subject 101, and 301 is a moving body. FIG. 2 is a flowchart relating to processing steps of the target person walking tracking method by a moving body on which the walking tracking device according to the present embodiment is mounted, FIGS. 3 to 7 are detailed flowcharts for each step of FIG. , FIG. 9 is a flowchart about the start of walking and prediction of walking, FIGS. 3, 10 to 27 are explanatory diagrams for explaining a specific example of automatic walking tracking in this embodiment, and FIGS. 28 and 29 are diagrams of the present invention. It is explanatory drawing of the determination method of the walking speed and direction of the subject in other embodiment.

まず、図1Aに基づき、歩行追跡型移動体の一例である、対象者(徘徊老人など)を追跡する追跡装置の構成について説明する。   First, based on FIG. 1A, the structure of the tracking apparatus which tracks the subject (an elderly person etc.) which is an example of a walk tracking type mobile body is demonstrated.

103は対象者測定装置であって、時間t=t(例えば、現在)における歩行状態102を検知するカメラなどの画像取り込み装置103aと取り込まれた画像を処理する画像処理部103bとにより構成されたり、対象者101の両足に取り付けられた右足、左足の情報を送信する信号送信機からの信号を受信する信号受信機としてのセンサ部分により構成されたりして、対象者101を特定若しくは認識する情報や歩行状態の情報などを測定するものである。 Reference numeral 103 denotes a subject measurement device, which includes an image capturing device 103a such as a camera that detects the walking state 102 at time t = t 0 (for example, the present) and an image processing unit 103b that processes the captured image. Or a sensor part as a signal receiver that receives a signal from a signal transmitter that transmits information on the right foot and the left foot attached to both feet of the subject 101, and identifies or recognizes the subject 101 Information, walking state information, etc. are measured.

105は歩行状態取得部であって、対象者測定装置103から入力される時間t=tにおける対象者データ(例えば、t=t時のカメラ103aで取得した対象者101の静止画像や信号受信機で取得した信号)106を取得して、時間t=tの歩行状態データ(例えば、対象者データ106における画像に係るデータからマッチングなどの処理によって検出された対象者101の踵以下の足における重心座標や信号受信機で取得した信号から三角測量などの処理によって得られた位置データ)108を算出するものである。なお、歩行状態データ108には、対象者101の歩幅、歩行周期などの歩行の特徴が含まれてもよい。 105 is a walking state acquiring unit, still images and signals of the subject data (e.g., the subject 101 acquired by the camera 103a o'clock t = t 0 at time t = t 0 which is input from the subject measuring device 103 Signal acquired by the receiver) 106 and walking state data at time t = t 0 (for example, less than or equal to that of the subject 101 detected by processing such as matching from data related to the image in the subject data 106) (Position data obtained by processing such as triangulation from the barycentric coordinates of the foot or the signal acquired by the signal receiver) 108 is calculated. The walking state data 108 may include walking characteristics such as the stride and the walking cycle of the target person 101.

107は歩行状態記憶部であって、歩行状態取得部105にて算出された時間t=t及び時間t=tより前の時間t=t−1(例えば、過去)における歩行状態データ108を記憶するものである。 Reference numeral 107 denotes a walking state storage unit. The walking state data 108 at time t = t 0 and time t = t −1 (for example, the past) calculated by the walking state acquisition unit 105 and before time t = t 0. Is memorized.

109は歩行状態判断部であって、歩行状態取得部105で算出された時間t=tにおける歩行状態データ108と、歩行状態記憶部107で記憶された時間t=tより前の時間t=t−1における歩行状態データ110とを取得するものであり、当該歩行状態判断部109では、時間t=tにおける歩行状態データ108と、時間t=t−1(t>t−1)における歩行状態データ110とに基づき、対象者101の時間t=tにおける歩行ベクトル(速度と角度)(移動体移動用ベクトル又は前記移動体の移動方向)111を算出する。 Reference numeral 109 denotes a walking state determination unit, which is the walking state data 108 at time t = t 0 calculated by the walking state acquisition unit 105 and the time t before the time t = t 0 stored in the walking state storage unit 107. = Walking state data 110 at t −1 , and the walking state determination unit 109 obtains the walking state data 108 at time t = t 0 and the time t = t −1 (t 0 > t −1. ) To calculate a walking vector (speed and angle) (moving body moving vector or moving direction of the moving body) 111 at time t = t 0 of the subject 101.

112は対象者記憶部であって、対象者測定装置103から時間t=tにおける対象者データ106、又は歩行状態取得部105で算出された時間t=tにおける対象者101の足データ(例えば、対象者データ106からマッチングなどの処理によって検出された対象者101の踵の静止画像や信号受信機で取得した信号)113の少なくともいずれか一方を記憶するものである。 Reference numeral 112 denotes a subject storage unit, which is subject data 106 at time t = t 0 from the subject measurement device 103 or foot data of the subject 101 at time t = t 0 calculated by the walking state acquisition unit 105 ( For example, at least one of the still image of the eyelid of the subject 101 detected by processing such as matching from the subject data 106 and the signal 113 acquired by the signal receiver) is stored.

114は対象者判断部であって、対象者測定装置103から時間t=tにおける対象者データ106と、歩行状態取得部105で算出された時間t=tにおける対象者101の足データ113との少なくともいずれか一方と、対象者記憶部112に記憶された時間t=t−1における対象者記憶データ115を取得するものであり、対象者記憶データ115から時間t=tにおける対象者確認データ(例えば、対象者データ106あるいは足データ113からパターンマッチングなどの処理によって判断された対象者データ106あるいは足データ113の正誤データ)116を算出する。なお、対象者判断部114は、後述する対象者特定処理のとき、対象者101の認識又は特定する情報の確認や判断などの処理を行う機能をも有している。 Reference numeral 114 denotes a target person determination unit, which includes target person data 106 at time t = t 0 from the target person measuring device 103 and foot data 113 of the target person 101 at time t = t 0 calculated by the walking state acquisition unit 105. And the target person storage data 115 at the time t = t −1 stored in the target person storage unit 112 and the target person at the time t = t 0 from the target person storage data 115. Confirmation data 116 (for example, correct / incorrect data of the subject data 106 or the foot data 113 determined from the subject data 106 or the foot data 113 by a process such as pattern matching) is calculated. Note that the subject determination unit 114 also has a function of performing processing such as recognition or determination of information to be identified or identified by the subject 101 during subject identification processing described later.

117は移動命令部であって、歩行状態判断部109からの時間t=tにおける歩行ベクトル111と、対象者判断部114からの時間t=tにおける対象者確認データ116とによって、移動命令118を算出するものである。 Reference numeral 117 denotes a movement command unit, which is based on the walking vector 111 at the time t = t 0 from the walking state determination unit 109 and the target person confirmation data 116 at the time t = t 0 from the target person determination unit 114. 118 is calculated.

901は、対象者特定情報や歩行状態の情報などを入力するキーやマウスや音声入力などの入力装置である。   Reference numeral 901 denotes an input device such as a key for inputting subject identification information or walking state information, a mouse, or voice input.

902は、出力装置の一例として機能し、対象者特定情報や歩行状態の情報などを表示する液晶表示装置などの表示装置である。   Reference numeral 902 denotes a display device such as a liquid crystal display device that functions as an example of an output device and displays target person identification information, walking state information, and the like.

前記対象者測定装置103、カメラ103a、画像処理部103b、歩行状態取得部105、歩行状態判断部109、歩行状態記憶部107、移動命令部117、対象者記憶部112、対象者判断部114、入力装置901、表示装置902とにより、追跡装置1000を構成しており、以下に説明する動作を行うものである。   The subject measurement device 103, the camera 103a, the image processing unit 103b, the walking state acquisition unit 105, the walking state determination unit 109, the walking state storage unit 107, the movement command unit 117, the target person storage unit 112, the target person determination unit 114, The input device 901 and the display device 902 constitute a tracking device 1000 that performs the operations described below.

119は、追跡装置1000を搭載する歩行追跡型移動体301の駆動部であって、追跡装置1000の移動命令部117から取得した移動命令118を実行して、以下に説明する動作行うものであって、例えば、後述するように追跡用の歩行追跡型移動体301を駆動するものである。移動体301は、具体的には、一対の走行用車輪119aと、一対の走行用車輪119aをそれぞれ正逆回転駆動するモータなどの一対の駆動装置119bと、一対の駆動装置119bの駆動を移動命令118に基づき制御する一対のドライバ119cを有している。なお、走行用車輪119aは一対に限られるものではなく、3個又は4個などの任意の個数でもよく、その個数に応じて、適宜、駆動装置119bとドライバ119cとを設けるようにすればよい。   Reference numeral 119 denotes a drive unit of the walking tracking type mobile unit 301 on which the tracking device 1000 is mounted, and executes the movement command 118 acquired from the movement command unit 117 of the tracking device 1000 to perform the operation described below. Thus, for example, as will be described later, the walking tracking mobile body 301 for tracking is driven. Specifically, the moving body 301 moves a pair of driving wheels 119a, a pair of driving devices 119b such as motors for driving the pair of traveling wheels 119a to rotate forward and backward, and a pair of driving devices 119b. A pair of drivers 119c controlled based on the command 118 is included. Note that the traveling wheels 119a are not limited to a pair, and may be an arbitrary number such as three or four, and the driving device 119b and the driver 119c may be appropriately provided according to the number. .

なお、歩行状態検知手段は、対象者101を判別する対象者判断部114と、対象者101の両足302,303の位置を検知する両足位置検知手段(一例として、対象者測定装置103など)などより構成するものである。歩行速度/経路検知手段は、一例として歩行状態判断部109などより構成する。制御手段は、一例として歩行状態取得部105と移動命令部117などより構成する。   Note that the walking state detection means includes a target person determination unit 114 that determines the target person 101, and both foot position detection means (such as the target person measurement apparatus 103) that detect the positions of both feet 302 and 303 of the target person 101. It consists of more. As an example, the walking speed / route detection means includes a walking state determination unit 109. As an example, the control means includes a walking state acquisition unit 105, a movement command unit 117, and the like.

次に、対象者101と移動体301の座標は、移動体301を基準とした図1Bに示される座標系によって示されるとする。ここで、対象者101と移動体301はXY平面上を移動し、位置座標Or(0,0)を移動体301の位置とし、位置座標OhR0(XR0,YR0)は、時間t=tの対象者101の右足302の座標、位置座標OhL0(XL0,YL0)は、時間t=tの対象者101の左足303の座標とする。 Next, it is assumed that the coordinates of the target person 101 and the moving body 301 are indicated by the coordinate system shown in FIG. Here, the subject 101 and the moving body 301 move on the XY plane, the position coordinate Or (0, 0) is set as the position of the moving body 301, and the position coordinate Oh R0 (X R0 , Y R0 ) has a time t = coordinates of the right foot 302 of subject 101 of t 0, the position coordinates Oh L0 (X L0, Y L0 ) is the coordinates of the left foot 303 of the subject 101 in time t = t 0.

さらに、以下の説明では、対象者101は、図10などに示すように、時間t=tでは、対象者101の左足303が右足302より一歩前に出た状態であるとする。よって、時間tより後の時間t=tでは、対象者101の左足303の位置座標OhL0(XL0,YL0)はそのままで、右足302を一歩前に正常に踏み出したとき、踏み出した後の右足302の位置座標をOhR1(XR1,YR1)とする。さらに、時間tより後の時間t=tでは、対象者101の右足302の位置座標OhR1(XR1,YR1)はそのままで、左足303を一歩前に正常に踏み出したとき、踏み出した後の左足303の位置座標をOhL1(XL1,YL1)とする。 Further, in the following description, it is assumed that the subject 101 is in a state where the left foot 303 of the subject 101 has come out one step ahead of the right foot 302 at time t = t 0 as shown in FIG. Therefore, at time t = t 1 after time t 0 , when the right foot 302 is normally stepped forward one step while the position coordinate Oh L0 (X L0 , Y L0 ) of the left foot 303 of the subject 101 remains unchanged After that, the position coordinates of the right foot 302 are assumed to be Oh R1 (X R1 , Y R1 ). Furthermore, at time t = t 2 after time t 1, the position coordinates Oh R1 (X R1 , Y R1 ) of the right foot 302 of the subject 101 remain unchanged, and the step is taken when the left foot 303 is normally stepped one step forward. After that, the position coordinates of the left foot 303 are assumed to be Oh L1 (X L1 , Y L1 ).

さらに、図2のフローチャートに基づき本実施形態における追跡方法に係る動作ステップについて、概略を説明した後、それぞれの動作ステップの詳細について説明する。この動作ステップは、原則として、対象者の特定処理:ステップS100、対象者の歩行状態データ取得処理:ステップS200、対象者の確認処理:ステップS300、対象者の歩行速度と角度算出処理:ステップS400、対象者の追跡処理:ステップS500の順に行われる。   Furthermore, after explaining the outline of the operation steps according to the tracking method in the present embodiment based on the flowchart of FIG. 2, the details of each operation step will be explained. As a general rule, this operation step includes subject identification processing: step S100, subject walking state data acquisition processing: step S200, subject confirmation processing: step S300, subject walking speed and angle calculation processing: step S400. , Subject tracking process: performed in the order of step S500.

(対象者の特定処理:ステップS100)
図1Aにおける対象者101を、移動体301に搭載されかつ図1Aに示す構成の追跡装置1000により、認識し特定して、特定された対象者データ106を対象者記憶部112に記憶させるとともに、歩行状態取得部105及び対象者判断部114にそれぞれ入力する。ここで、対象者101を認識する方法として、あらかじめ、追跡装置1000に、対象者101の靴などの特徴を、カメラ103aなどを用いて画像入力して記憶してもよい。
(Target person identification process: step S100)
The target person 101 in FIG. 1A is recognized and specified by the tracking apparatus 1000 mounted on the mobile body 301 and configured as shown in FIG. 1A, and the specified target person data 106 is stored in the target person storage unit 112. The information is input to the walking state acquisition unit 105 and the target person determination unit 114, respectively. Here, as a method for recognizing the target person 101, features such as the shoes of the target person 101 may be input and stored in the tracking device 1000 in advance using the camera 103 a or the like.

(対象者の歩行状態データ取得処理:ステップS200)
対象者101の歩行状態102の情報を対象者測定装置103にて計測し、対象者データ106の一部として歩行状態取得部105に入力され、歩行状態取得部105で歩行状態データ108を算出して対象者記憶部112に記憶するとともに歩行状態判断部109に入力する。同様に、対象者101の歩行状態データ108は、対象者データ106の一部として、歩行状態記憶部107にも入力される。
(Subject's walking state data acquisition process: step S200)
Information on the walking state 102 of the target person 101 is measured by the target person measuring device 103 and input to the walking state acquisition unit 105 as part of the target person data 106, and the walking state acquisition unit 105 calculates the walking state data 108. Are stored in the subject storage unit 112 and input to the walking state determination unit 109. Similarly, the walking state data 108 of the subject person 101 is also input to the walking state storage unit 107 as part of the subject person data 106.

(対象者の確認処理:ステップS300)
対象者判断部114によって、時間t=tの対象者データ106と、歩行状態取得部105で算出された時間t=tにおける対象者101の足データ113との少なくともいずれか一方を記憶し、この記憶されたデータと、対象者記憶部112で記憶された時間t=t−1における対象者記憶データ115とを比較して、時間t=tにおける対象者確認データ116を出力する。この出力された対象者確認データ116によって、現在認識している対象者101が、先に計測した対象者101に間違いないか確認する。ただし、対象者記憶データ115は必ず、対象者判断部114で比較する時間t=tにおける対象者データ106、又は時間t=tの対象者の足データ113、又は両方のデータと同じ種類のデータであるとする。
(Subject confirmation process: step S300)
The subject determining section 114, and stores the subject data 106 of the time t = t 0, at least one of the foot data 113 of the subject 101 at the time calculated by the walking state acquiring unit 105 t = t 0 The stored data is compared with the target person stored data 115 at the time t = t −1 stored in the target person storage unit 112, and the target person confirmation data 116 at the time t = t 0 is output. Based on the output target person confirmation data 116, it is confirmed whether or not the target person 101 currently recognized is the target person 101 previously measured. However, the subject stored data 115 is always the same type as the subject data 106 at the time t = t 0 to be compared by the subject judgment unit 114, the foot data 113 of the subject at the time t = t 0 , or both data. Data.

(対象者の歩行速度と角度算出処理:ステップS400)
歩行状態判断部109によって、時間t=tにおける歩行状態データ108と、歩行状態記憶部107で記憶した時間t=t−1における歩行状態データ110とを比較し、歩行ベクトル111(速度と角度)を求める。ここで、歩行状態データ108に含まれる歩幅は、あらかじめ、追跡装置1000に、対象者101又は一般的な人の歩幅の平均値を記憶させてもよい。又は、対象者101の認識時(ステップS100)に、対象者101の身長の情報から歩幅を算出してもよい。なお、対象者101の身長の情報は画像情報から算出したり、直接、追跡装置1000に教示してもよい。
(Subject's walking speed and angle calculation processing: step S400)
The walking state determination unit 109, a walking state data 108 at time t = t 0, compares the walking state data 110 at time stored t = t -1 walking state storage unit 107, the walking vector 111 (speed and angle ) Here, the stride included in the walking state data 108 may be stored in advance in the tracking device 1000 as an average value of the stride of the target person 101 or a general person. Alternatively, the stride may be calculated from the height information of the target person 101 when the target person 101 is recognized (step S100). The height information of the target person 101 may be calculated from image information or directly taught to the tracking device 1000.

(対象者の追跡処理:ステップS500)
時間t=tにおける対象者確認データ116と歩行ベクトル111とにより、追跡装置1000の移動命令部117から移動命令118を移動体301の駆動部119に伝え、後述するように移動体301が、対象者101と所定の距離(最小距離)を保ちながら、対象者101を追跡するように移動体301を移動制御する。移動体301の移動目標となる位置は、例えば、対象者101の右足302の位置座標と左足303の位置座標との中点の位置座標とする。
(Subject tracking process: step S500)
Based on the subject confirmation data 116 and the walking vector 111 at time t = t 0, the movement command 118 is transmitted from the movement command unit 117 of the tracking device 1000 to the drive unit 119 of the moving body 301, and the moving body 301, as will be described later, While maintaining a predetermined distance (minimum distance) from the subject 101, the moving body 301 is controlled to track the subject 101. The position that is the movement target of the moving body 301 is, for example, the position coordinates of the midpoint between the position coordinates of the right foot 302 and the position coordinates of the left foot 303 of the subject 101.

以下に、上述したステップS100〜S500のそれぞれについて、詳細に説明する。   Below, each of step S100-S500 mentioned above is demonstrated in detail.

ここで、図3は対象者の特定処理:ステップS100のフローチャート、図4は対象者の歩行状態データ取得処理:ステップS200のフローチャート、図5は対象者の確認処理:ステップS300のフローチャート、図6は対象者の歩行速度と角度算出処理:ステップS400のフローチャート、図7は対象者の追跡処理:ステップS500のフローチャートである。   Here, FIG. 3 is a process for identifying the target person: a flowchart of step S100, FIG. 4 is a process for acquiring the walking state data of the target person: a flowchart of step S200, FIG. 5 is a process for checking the target person: a flowchart of step S300, FIG. FIG. 7 is a flowchart of the target person's walking speed and angle calculation process: Step S400. FIG. 7 is a target person's tracking process: Step S500.

また、以下の処理においては、正常状態での対象者101の歩行を以下のように仮定する。すなわち、対象者101の左足303が右足302よりも一歩前に出た状態を歩行開始状態とし、この状態から歩行を開始し、歩行開始前を時間t=tとする。そして、対象者101が左足303を軸にして右足302を一歩前に進めて、時間t=tのときに着地する。このとき、時間t=tのときの右足302の位置から、時間t=t’のときに右足302を上げて、時間t=t’’のときに右足302を前の方に出し、時間t=tのときに右足302が着地する。次いで、対象者101が右足302を軸にして左足303を一歩前に進めて、時間t=tのときに着地する。 In the following processing, it is assumed that the subject 101 walks in a normal state as follows. That is, the left foot 303 of the subject 101 is a walk-starting state state exiting before step than the right foot 302, and starts walking from this state, the pre-walking start and time t = t 0. Then, the subject 101 advances the right foot 302 one step forward with the left foot 303 as an axis, and lands at time t = t 1 . At this time, the position of the right foot 302 at time t = t 0, the time 'by raising the right foot 302 at time t = t 0' t = t 0 issues a right foot 302 towards the front when the ' The right foot 302 lands at time t = t 1 . Then, the subject 101 is a left foot 303 and right foot 302 in the axial advance one step before, lands at time t = t 2.

図10は、時間t=tのときの歩行開始状態(対象者101の左足303が右足302よりも一歩前に出た状態)の対象者101と、そのときの両足302,303の2次元位置座標とを対応させて示す説明図である。ただし、図中、三角形の印は左足303の着地した位置を示し、丸の印は右足302の着地した位置を示す。他の図でも同様である。図13は、時間t=tのときに、時間t=tのときの正常歩行状態の歩行予想範囲を図10の上に重ねて示す説明図である。図17は時間t=tのときの正常歩行状態(対象者101の右足302が左足303よりも一歩前に出た状態)の対象者101とそのときの両足302,303の2次元位置座標とを対応させて示す説明図である。図20は、時間t=tのときの正常歩行状態(対象者101の左足303が右足302よりも一歩前に出た状態)の対象者101と、そのときの両足302,303の2次元位置座標とを対応させて示す説明図である。 FIG. 10 shows a two-dimensional view of the subject 101 in a walking start state at a time t = t 0 (a state in which the left foot 303 of the subject 101 is one step ahead of the right foot 302) and both feet 302 and 303 at that time. It is explanatory drawing which matches and shows a position coordinate. However, in the figure, the triangle mark indicates the position where the left foot 303 has landed, and the circle mark indicates the position where the right foot 302 has landed. The same applies to other figures. FIG. 13 is an explanatory diagram showing the predicted walking range in the normal walking state at the time t = t 1 when the time t = t 0 is superimposed on FIG. FIG. 17 shows the two-dimensional position coordinates of the subject 101 in the normal walking state at the time t = t 1 (the right foot 302 of the subject 101 is one step ahead of the left foot 303) and the both feet 302, 303 at that time. FIG. FIG. 20 shows a two-dimensional view of the subject 101 in a normal walking state at a time t = t 2 (a state in which the left foot 303 of the subject 101 is one step ahead of the right foot 302) and both feet 302 and 303 at that time. It is explanatory drawing which matches and shows a position coordinate.

さらに、図11は、時間t=tのときの歩行開始状態(図10の状態)で移動体301が対象者101を追跡しようとしている(移動体301は、まだ移動停止状態となっている)一例を示す説明図である。図19は、時間t=tのときの正常歩行状態(図17の状態)で移動体301が対象者101を追跡しようとしている(移動体301は、まだ移動停止状態となっている)一例を示す説明図である。図21は、時間t=tのときの正常歩行状態(図20の状態)で移動体301が対象者101の追跡を開始して移動している一例を示す説明図である。 Further, FIG. 11 shows that the moving body 301 is trying to track the subject 101 in the walking start state at the time t = t 0 (the state shown in FIG. 10) (the moving body 301 is still in the movement stopped state). It is explanatory drawing which shows an example. FIG. 19 shows an example in which the moving body 301 tries to track the target person 101 in the normal walking state at the time t = t 1 (the state shown in FIG. 17) (the moving body 301 is still in the movement stopped state). It is explanatory drawing which shows. Figure 21 is an explanatory diagram showing an example of the moving body 301 is moved to start tracking the subject 101 in a normal walking state at time t = t 2 (the state of FIG. 20).

また、図12は、時間t=tのときの歩行開始状態(図10の状態、すなわち両足は着地している状態)で、カメラ103aにより取得される画像880とその画像880の中で注目する画像領域890とを示す図である。ただし、画像880中の点線の四角形の枠881は、移動体301と対象者101との距離を測定するために、測定後に画像上に付加したものである。他の図でも同様である。図14,図15は、時間t=t’のとき(対象者101の右足302は地面から上がって浮いている状態)に、時間t=tのときの正常歩行状態の歩行予想範囲を図12に重ねて示す図である。ただし、図15は、図14と同じ状態であるが、歩行予想範囲の全部を明示した場合の図である。図16は、時間t=t’’のとき(右足は着地前で浮いている状態)に、時間t=tのときの正常歩行状態の歩行予想範囲を図12に重ねて示す図である。図18は、時間t=tのとき(図17の状態すなわち右足が着地した状態)の正常歩行状態でカメラ103aにより取得される画像880とその画像880の中で注目する画像領域890とを示す図である。ここで、t<t’<t’’<tとする。また、Srは、移動体301の移動目標とし、ここでは、右足302の位置座標OhR0と左足303の位置座標OhL0の中点の位置座標としてもよい。 FIG. 12 shows a walking start state at time t = t 0 (the state shown in FIG. 10, that is, both feet are landing), and attention is paid to the image 880 acquired by the camera 103a and the image 880. It is a figure which shows the image area | region 890 to perform. However, a dotted rectangular frame 881 in the image 880 is added to the image after the measurement in order to measure the distance between the moving body 301 and the subject 101. The same applies to other figures. FIGS. 14 and 15 show the predicted walking range in the normal walking state at time t = t 1 when time t = t 0 ′ (the right foot 302 of the subject 101 is floating above the ground). FIG. 13 is a diagram overlapping with FIG. 12. However, FIG. 15 is the same state as FIG. 14, but is a diagram when the entire walking expected range is clearly shown. FIG. 16 is a diagram showing the predicted walking range in the normal walking state at time t = t 1 when time t = t 0 ″ (the right foot is floating before landing), superimposed on FIG. is there. FIG. 18 shows an image 880 acquired by the camera 103a in the normal walking state at time t = t 1 (the state shown in FIG. 17, that is, the state where the right foot has landed), and an image region 890 of interest in the image 880. FIG. Here, it is assumed that t 0 <t 0 ′ <t 0 ″ <t 1 . Further, Sr 0 is a movement target of the moving body 301, and may be a position coordinate of a midpoint of the position coordinate Oh R0 of the right foot 302 and the position coordinate Oh L0 of the left foot 303 here.

(対象者特定処理:ステップS100)
対象者101の特定処理のステップS100を図3のフローチャート並びに図10,図11,図12を基に詳細に説明する。
(Subject identification process: step S100)
Step S100 of the identification process for the subject person 101 will be described in detail with reference to the flowchart of FIG. 3 and FIGS.

まず、移動体301を随行させる対象者101のデータを追跡装置1000の対象者記憶部112と歩行状態取得部105と対象者判断部114とに、対象者測定装置103又はキーやマウスや音声入力などの入力装置901から入力する(ステップS101)。このとき、移動体301に搭載された追跡装置1000の対象者測定装置103が、例えばセンサ部分が画像入力用のカメラ103aである場合には、カメラ103aで対象者101を認識できるように(カメラ103aの初期設定した画像上の基準範囲内に対象者101が位置するように)するため、図11に示すように、移動体301の正面に対象者101が位置していることが必要である。   First, the data of the target person 101 who follows the moving body 301 is input to the target person storage unit 112, the walking state acquisition unit 105, and the target person determination unit 114 of the tracking device 1000, or the target person measurement device 103 or a key, mouse, or voice input. From the input device 901 (step S101). At this time, if the subject measurement device 103 of the tracking device 1000 mounted on the moving body 301 is, for example, a camera 103a for image input, the camera 103a can recognize the subject 101 (camera). In order to position the target person 101 within the reference range on the initially set image 103a, it is necessary that the target person 101 is positioned in front of the moving body 301 as shown in FIG. .

このため、対象者101が移動体301の正面以外に位置している場合には、対象者101が移動体301の正面に移動するか、又は、移動体301が移動して対象者101が移動体301の正面に位置するようにしてもよい。ここで、基準範囲とは、2次元座標への画像の画素座標を変換した際に、定められた座標になる範囲(例えば、図12の注目する画像範囲890)である。   For this reason, when the target person 101 is located at a position other than the front of the moving body 301, the target person 101 moves to the front of the moving body 301 or the moving body 301 moves to move the target person 101. It may be positioned in front of the body 301. Here, the reference range is a range (for example, a focused image range 890 in FIG. 12) that becomes a predetermined coordinate when pixel coordinates of an image are converted into two-dimensional coordinates.

対象者測定装置103のカメラ103aから入力される対象者101のデータの例としては、図12に示されるように、対象者101の全身又は下半身の画像データである。また、これとは別に、入力装置901から入力される対象者101のデータの例としては、本人が識別できる情報であって、対象者101の身体的特徴(顔,体型,靴のサイズなど)、靴や服装の特徴(靴の色や大きさや形など、服装の色や大きさや形など)、歩行状態のデータ(歩幅など)などがある。これらのデータは、追跡装置1000の対象者記憶部112内、又は対象者記憶部112外のデータベースに予め記憶しておき、そのデータベースからこれらのデータを読み出して使用するようにしてもよい。   As an example of the data of the target person 101 input from the camera 103a of the target person measuring apparatus 103, as shown in FIG. 12, image data of the whole body or lower body of the target person 101 is obtained. In addition, as an example of the data of the target person 101 input from the input device 901, information that can be identified by the person and physical characteristics of the target person 101 (face, body shape, shoe size, etc.) , Characteristics of shoes and clothes (colors, sizes, and shapes of shoes, etc., colors, sizes, and shapes of clothes), and walking state data (steps, etc.). These data may be stored in advance in a database outside the subject person storage unit 112 or outside the subject person storage unit 112 of the tracking apparatus 1000, and these data may be read out from the database and used.

入力されたデータにより対象者101が特定できたか否かを、対象者判断部114により判断する(ステップS102)。すなわち、データが不足して対象者101が特定できなかった場合には、対象者が特定できないことを表示装置902で表示又は警告音を発するなどして通知した後(ステップS105)、ステップS101に戻る。   The target person determination unit 114 determines whether or not the target person 101 can be identified from the input data (step S102). In other words, if the subject person 101 cannot be identified due to lack of data, the display device 902 notifies that the subject person cannot be identified, for example, by displaying or warning sound (step S105), and then to step S101. Return.

ステップS102で対象者101が特定できた場合には、特定できた対象者101を表示装置902に表示する(ステップS103)。   When the target person 101 can be specified in step S102, the specified target person 101 is displayed on the display device 902 (step S103).

次いで、対象者101自身により、表示装置902に表示された情報を確認したか否かを、対象者判断部114により判断する(ステップS104)。対象者101が、表示装置902に表示された情報を確認した場合(例えば、確認した旨の音声入力又はキー入力などの入力装置901からの入力が所定時間内に行われた場合)には、対象者101の歩行状態データ取得処理(ステップS200)へ進む。対象者101が、表示された情報を確認しなかった場合には、ステップS101に戻って、再度、対象者101のデータ入力を行う。この確認作業のとき、対象者101が、表示装置902に表示された情報を入力装置901から訂正するようにしてもよい。   Next, the target person determination unit 114 determines whether or not the information displayed on the display device 902 has been confirmed by the target person 101 itself (step S104). When the target person 101 confirms the information displayed on the display device 902 (for example, when input from the input device 901 such as voice input or key input indicating confirmation is performed within a predetermined time), Proceed to the walking state data acquisition process of the subject person 101 (step S200). When the target person 101 does not confirm the displayed information, the process returns to step S101 and data input of the target person 101 is performed again. At the time of this confirmation work, the target person 101 may correct the information displayed on the display device 902 from the input device 901.

(対象者の歩行状態データ取得処理:ステップS200)
対象者101の歩行状態データ取得処理のステップS200を図4のフローチャート並びに図13などを基に詳細に説明する。
(Subject's walking state data acquisition process: step S200)
Step S200 of the walking state data acquisition process of the subject person 101 will be described in detail based on the flowchart of FIG. 4 and FIG.

対象者101の歩行状態102の情報を対象者測定装置103にて計測する(ステップS201)。   Information on the walking state 102 of the subject person 101 is measured by the subject person measuring device 103 (step S201).

次いで、ステップS201で計測された歩行状態102の情報を、対象者データ106の一部として歩行状態取得部105と対象者記憶部112と対象者判断部114とにそれぞれ入力する(ステップS202)。ここで、入力されるデータの例としては、対象者101の歩行状態の画像データ,対象者101の両足(踝より下)の位置情報,歩幅データなどである。   Next, the information on the walking state 102 measured in step S201 is input to the walking state acquisition unit 105, the target person storage unit 112, and the target person determination unit 114 as part of the target person data 106 (step S202). Here, examples of input data include image data of the walking state of the target person 101, position information of both feet (below the heel) of the target person 101, stride length data, and the like.

次いで、ステップS202で歩行状態取得部105に入力されたデータに基づき、歩行状態取得部105が歩行状態データ108を算出して、算出された歩行状態データ108が、対象者記憶部112に記憶されるとともに歩行状態判断部109に入力される(ステップS203)。ここで、歩行状態データ108の例としては、対象者101の踵以下の足における重心座標であり、この他、対象者101の歩幅,歩行周期などの歩行の特徴が含まれてもよい。   Next, based on the data input to the walking state acquisition unit 105 in step S202, the walking state acquisition unit 105 calculates the walking state data 108, and the calculated walking state data 108 is stored in the subject storage unit 112. And input to the walking state determination unit 109 (step S203). Here, as an example of the walking state data 108, the coordinates of the center of gravity of the foot below the heel of the subject person 101 may be included, and other features of the walking such as the stride and the walking cycle of the subject person 101 may be included.

次いで、対象者101の歩幅のデータ(もし、対象者101の歩幅のデータが無い場合には、一般的な人の歩幅データ)を基に、歩行状態取得部105により、対象者101の歩行予想範囲601を算出する(ステップS204)。歩行予想範囲601は、予め追跡装置1000に設定した歩幅のデータより、対象者101の軸足の座標を中心に歩幅から、(歩幅×1.2≦半径R≦(歩幅+靴のサイズ)×1.2)の式で算出された半径Rを持ち、かつ図13に示されるように、軸足OhL0を通り、軸足側と反対方向に長さRである直線OhR0OhR1に垂直な線分(図13では線分OhL0Fs)を基準とする100度から120度範囲の角度の扇形の範囲でもよい。 Next, based on the stride data of the target person 101 (if there is no stride data of the target person 101, the normal person's stride data), the walking state acquisition unit 105 predicts the walking of the target person 101. A range 601 is calculated (step S204). The predicted walking range 601 is calculated based on the stride data set in the tracking device 1000 in advance from the stride centered on the coordinates of the axis foot of the subject 101 (step stride × 1.2 ≦ radius R ≦ (step stride + shoe size) × 1.2) and has a radius R calculated by the equation of 1.2), and passes through the shaft foot Oh L0 and is perpendicular to a straight line Oh R0 Oh R1 having a length R in a direction opposite to the shaft foot side, as shown in FIG. A fan-shaped range having an angle in the range of 100 degrees to 120 degrees with respect to a straight line segment (the line segment Oh L0 Fs in FIG. 13) may be used.

このような範囲内ならば、正常な歩行動作を行うときには、ほとんど足がその範囲内に着地することになる。すなわち、ここでいう、歩行予想範囲とは、対象者101が正常な歩行動作を行うときに、ほとんどの場合、足がその範囲内に着地する範囲である。なお、対象者101が、正常な歩行動作を行おうとしていても、常に、よろける傾向がある場合には、それを考慮して、扇形の範囲の角度をより広く取ったり、半径を大きめに設定すればよい。   If it is in such a range, when a normal walking motion is performed, the foot almost lands within that range. In other words, the predicted walking range here is a range where the foot lands within the range when the subject 101 performs a normal walking motion. In addition, even if the target person 101 is trying to perform normal walking motion, if the tendency is always to stagger, taking into account that, the fan-shaped range is taken wider or the radius is set larger. do it.

なお、図13,図14,図15,図16,図17の歩行予想範囲601は、時間t=tの両足302,303の位置座標OhR0,OhL0から予想した時間t=tのときの右足302の位置座標OhR1の予想範囲であり、図19,図20,図21の歩行予想範囲602は、時間t=tの両足302,303の位置座標OhR1,OhL0から予想した時間t=tのときの左足303の位置座標OhL1の予想範囲である。この歩行予想範囲601,602は、現在(最新の時間:例えば時間t=t)の軸足の位置とその軸足の歩行一歩手前の過去(例えば時間t=t−1)のときの位置とを結んだ直線と大略直角になり、かつ軸足の位置から対象者101の体の内側方向に下ろした半直線を基準とした180度以下の対象者101の歩幅である半径Rの扇形としている。 The predicted walking range 601 in FIGS. 13, 14, 15, 16, and 17 is the time t = t 1 predicted from the position coordinates Oh R0 and Oh L0 of the feet 302 and 303 at time t = t 0 . Is the predicted range of the position coordinates Oh R1 of the right foot 302, and the predicted walking range 602 of FIGS. 19, 20, and 21 is predicted from the position coordinates Oh R1 and Oh L0 of both feet 302 and 303 at time t = t 1. the expected range of the position coordinates Oh L1 of the left foot 303 when that the time t = t 2. The predicted walking ranges 601 and 602 are positions of the current (latest time: for example, time t = t 0 ) position of the axial foot and the past (for example, time t = t −1 ) before the walking of the axial foot. As a sector of a radius R that is a stride of the subject 101 that is 180 degrees or less on the basis of a half straight line that is substantially perpendicular to the straight line that connects to the inner side of the subject 101 from the position of the axial foot. Yes.

なお、例えば、カメラから取得された画像上に障害物が検知されたりするなど、対象者101の突発的な動きが生じる予想ができる場合には、そのとき予想する歩行予想範囲の角度は、一時的に、180度に変更するようにしてもよい。ここで、対象者101の突発的な動きが生じる予想ができる場合としては、障害物が移動物体である場合、又は対象者101が障害物に気がついていない場合が考えられる。一般に、対象者101の突発的な動きを予想するのは困難であるため、歩行予想範囲の角度を大きくするのが好ましい。角度を変えずに、歩行予想範囲を半径方向に大きくするのは、移動体301が急加速し、対象者101に衝突するなどの恐れがあるため好ましくない。   Note that, for example, when an unexpected movement of the target person 101 can be predicted, such as when an obstacle is detected on the image acquired from the camera, the angle of the predicted walking range at that time is temporarily Specifically, it may be changed to 180 degrees. Here, as a case where a sudden movement of the target person 101 can be predicted, a case where the obstacle is a moving object or a case where the target person 101 is not aware of the obstacle can be considered. In general, since it is difficult to predict the sudden movement of the subject 101, it is preferable to increase the angle of the predicted walking range. Increasing the predicted walking range in the radial direction without changing the angle is not preferable because the moving body 301 may accelerate rapidly and collide with the subject 101.

また、足が不自由な身体障害者など、健常者と歩行状態の違いがある場合など、頻繁に突発的な動きなどにより歩行予想範囲外に足が着地すると頻繁に認識される場合には、上述した歩行予想範囲の基に追跡動作を行う健常者用のモードの他に、健常者用のモードの歩行予想範囲よりも大きな範囲、又は大きな角度の歩行予想範囲の基に追跡動作を行う非健常者用のモードを歩行状態記憶部107などに記憶して、入力装置などからの入力により、又は歩行予想範囲外に足が着地する回数が所定回数を超えたとの履歴情報を基に、前記モードの切り換えを可能として、対象者101に、より適した歩行予想範囲を設定することもできる。   In addition, when there is a difference in walking state from a healthy person, such as a physically handicapped person, such as a disabled person, if it is frequently recognized that the foot will land outside the expected walking range due to frequent sudden movements, etc. In addition to the mode for the healthy person that performs the tracking operation based on the predicted walking range described above, the non-tracking operation is performed based on the predicted walking range that is larger than the predicted walking range in the mode for the healthy person or a large range of walking. The mode for healthy persons is stored in the walking state storage unit 107 or the like, and based on the history information that the number of times that the foot has landed outside the expected walking range by input from an input device or the like exceeds the predetermined number of times. The mode can be switched, and a more suitable walking prediction range can be set for the subject 101.

なお、扇形の角度は(90≦∠FsOhL0Fe≦180(度))の式で算出され、また歩幅の設定方法は、例えば、取得した対象者101のデータから身長を取り出し、(身長×0.37≦歩幅≦身長×0.45)の式から算出してもよい。なお、図13において、610は、対象者101の左足303を中心とした対象者101の前側に位置し、かつ右足302の移動前と移動後の位置座標を結ぶ直線OhR0OhR1と直交し、かつ左足303の位置座標を通過する直線(線分OhL0Fs沿いの直線)を含む半円形の最大歩行予想範囲である。この最大歩行予想範囲610内に前記扇形の歩行予想範囲601は入っている。 Note that the fan-shaped angle is calculated by the equation (90 ≦ ∠FsOh L0 Fe ≦ 180 (degrees)), and the stride setting method is, for example, extracting the height from the acquired data of the subject 101 and (height × 0 .37 ≦ step length ≦ height × 0.45). In FIG. 13, 610 is positioned on the front side of the subject 101 with the left foot 303 of the subject 101 as the center, and is orthogonal to a straight line Oh R0 Oh R1 that connects the position coordinates of the right foot 302 before and after the move. And a semicircular maximum predicted walking range including a straight line passing through the position coordinates of the left foot 303 (a straight line along the line segment Oh L0 Fs). The fan-shaped walking predicted range 601 is included in the maximum walking predicted range 610.

身長×0.37の歩幅は、普通に歩行するときの歩幅であり、身長×0.45の歩幅は、普通より早めにウォーキングするときの歩幅である。   The stride of height × 0.37 is the stride when walking normally, and the stride of height × 0.45 is the stride when walking earlier than usual.

次いで、図8で後述するように、対象者101が、所定時間内に、一歩、踏み出したか否かを判断する(ステップS205)。具体的には、対象者101の歩行状態102の情報を対象者測定装置103にて計測して、歩行状態取得部105で、対象者101のいずれかの足の踵の位置が変わっているか否かを判断すればよい。ステップS205で対象者101が所定時間内に一歩踏み出さなかったと判断された場合には、歩行する意志は無いものとみなして、ステップS201又はステップS203に戻る。すなわち、計測からやり直すときには、ステップS201に戻り、計測はそのままで演算をやり直すときにはステップS203に戻る。   Next, as will be described later with reference to FIG. 8, it is determined whether or not the subject 101 has taken a step within a predetermined time (step S205). Specifically, information on the walking state 102 of the subject person 101 is measured by the subject person measuring device 103, and whether or not the position of the heel of any one of the subject person 101 is changed in the walking state acquisition unit 105. You just have to judge. If it is determined in step S205 that the subject 101 has not taken one step within the predetermined time, it is assumed that there is no intention to walk, and the process returns to step S201 or step S203. That is, when redoing from the measurement, the process returns to step S201, and when redoing the calculation without changing the measurement, the process returns to step S203.

ステップS205で対象者101が所定時間内に一歩踏み出したと判断された場合には、踏み出した足の位置が、歩行予想範囲601内であったか否かを判断する(ステップS206)。ステップS206で踏み出した足の位置が歩行予想範囲601内で無いと判断された場合には、歩幅又は角度などの修正を歩行状態取得部105により行った後(ステップS212)、ステップS201又はステップS203に戻る。すなわち、計測からやり直すときには、ステップS201に戻り、計測はそのままで演算をやり直すときにはステップS203に戻る。ただし、歩幅又は角度などの修正を歩行状態取得部105により行う代わりに、後述する図9のステップS809及びステップS810のように、対象者101はバランスを崩したとみなして、移動体301の移動を停止させるようにしてもよい。   If it is determined in step S205 that the subject 101 has taken one step within the predetermined time, it is determined whether or not the position of the stepped foot is within the predicted walking range 601 (step S206). When it is determined that the position of the foot that has been stepped on in step S206 is not within the predicted walking range 601, after correcting the step length or the angle by the walking state acquisition unit 105 (step S212), step S201 or step S203. Return to. That is, when redoing from the measurement, the process returns to step S201, and when redoing the calculation without changing the measurement, the process returns to step S203. However, instead of performing the correction of the stride or the angle by the walking state acquisition unit 105, the target person 101 is regarded as having lost the balance as in Step S809 and Step S810 of FIG. You may make it stop.

ステップS206で踏み出した足の位置が歩行予想範囲601内であると判断された場合には、対象者101と移動体301との間の距離を対象者測定装置103で計測して、当該距離が追随開始距離(例えば1m)を超えたか否かを移動命令部117で判断する(ステップS207)。   If it is determined in step S206 that the position of the stepped foot is within the expected walking range 601, the distance between the target person 101 and the moving body 301 is measured by the target person measuring device 103, and the distance is determined. The movement command unit 117 determines whether or not the follow start distance (for example, 1 m) has been exceeded (step S207).

ステップS207で当該距離が追随開始距離を超えていないと判断された場合には、既に追随を開始していたか(例えば、速度が0でない歩行ベクトル111が既に出力されているか)否かを移動命令部117により判断する(ステップS210)。ステップS210で既に追随を開始していたと判断された場合には、移動体301が対象者101に近づき過ぎたものとして、移動体301の移動(追随動作)を停止して(ステップS211)、一連の処理を終了する。   If it is determined in step S207 that the distance does not exceed the tracking start distance, it is determined whether the tracking has already started (for example, whether the walking vector 111 whose speed is not 0 has already been output) or not. The determination is made by the unit 117 (step S210). If it is determined in step S210 that tracking has already started, it is determined that the moving body 301 has approached the subject 101 too much, and the movement (following operation) of the moving body 301 is stopped (step S211). Terminate the process.

ステップS210で既に追随を開始していなかったと判断された場合には、ステップS201又はステップS203に戻る。すなわち、計測からやり直すときには、ステップS201に戻り、計測はそのままで演算をやり直すときにはステップS203に戻る。   If it is determined in step S210 that tracking has not been started, the process returns to step S201 or step S203. That is, when redoing from the measurement, the process returns to step S201, and when redoing the calculation without changing the measurement, the process returns to step S203.

ステップS207で当該距離が追随開始距離を超えていると判断された場合には、歩行状態記憶部107に記憶された歩行状態データ108に基づき対象者101が歩行開始から2歩以上歩行したか否かを判断する(ステップS208)。ステップS208で歩行開始から2歩以上歩行していなかったと判断された場合には、そのまま、一連の処理を終了する。   If it is determined in step S207 that the distance exceeds the following start distance, whether or not the subject 101 has walked two or more steps from the start of walking based on the walking state data 108 stored in the walking state storage unit 107. Is determined (step S208). If it is determined in step S208 that the user has not walked more than two steps from the start of walking, the series of processing ends.

ステップS208で歩行開始から2歩以上歩行していたと判断された場合には、そのときまでに記憶された歩幅データに基づき、歩行状態取得部105により、歩幅の修正を行ったのち(ステップS209)、対象者101の確認処理(ステップS300)へ進む。これは、歩行開始から2歩以上歩行していれば、歩幅を平均化することができるためである。   If it is determined in step S208 that the user has walked two or more steps from the start of walking, the walking state acquisition unit 105 corrects the stride based on the stride data stored so far (step S209). Then, the process proceeds to the confirmation process (step S300) of the target person 101. This is because the stride can be averaged if two or more steps have been taken since the start of walking.

ここで、ステップS205の対象者101が、所定時間内に、一歩、踏み出したか否かを判断する処理、言い換えれば、歩行開始の認識処理を、図8を用いて、詳しく説明する。   Here, the process of determining whether or not the target person 101 in step S205 has taken a step within a predetermined time, in other words, the process of recognizing the start of walking will be described in detail with reference to FIG.

例えば、センサ部分が画像入力用のカメラ103aであった場合についての歩行開始の認識方法を、図8を用いて説明する。   For example, a method for recognizing the start of walking when the sensor portion is the camera 103a for image input will be described with reference to FIG.

まず、対象者測定装置103において、カメラ103aで取得して画像処理部103bで画像処理された画像から対象者101の両足を歩行状態取得部105でマッチング処理を行う(ステップS701)。マッチングの基準となる対象者101の両足の画像は予めカメラ103aで取得しておく。   First, in the subject measurement apparatus 103, the walking state obtaining unit 105 performs matching processing on both feet of the subject 101 from an image obtained by the camera 103a and image-processed by the image processing unit 103b (step S701). Images of both feet of the subject 101 serving as a reference for matching are acquired in advance by the camera 103a.

次いで、マッチングによりトラッキングした両足の画像上の重心座標を歩行状態取得部105で取得する(ステップS702)。   Next, the centroid coordinates on the images of both feet tracked by matching are acquired by the walking state acquisition unit 105 (step S702).

さらに、その重心座標を、図1Bで説明した移動体301を基準とした2次元座標上へ歩行状態取得部105で変換する(ステップS703)。   Further, the center-of-gravity coordinates are converted by the walking state acquisition unit 105 onto the two-dimensional coordinates based on the moving body 301 described in FIG. 1B (step S703).

次いで、歩行状態取得部105で、2次元座標上の対象者101の両足のうちの、対象者101の右側の足の重心座標をOhR0(XR0,YR0)、左側の足の重心座標をOhL0(XL0,YL0)とする(ステップS704)。ただし、対象者101の向きによって、左右は反対となるので、対象者101が移動体301と同一方向を向いている状態(移動体301の正面が対象者101の背中に向いている状態)で、かつ両足を認識できる対象者101の状態と移動体301の位置関係を、図3の対象者特定処理が行える関係とする。 Next, the walking state acquisition unit 105 sets Oh R0 (X R0 , Y R0 ) as the center-of-gravity coordinates of the right foot of the subject 101 out of both feet of the subject 101 on the two-dimensional coordinates, and the center-of-gravity coordinates of the left foot. Is set to Oh L0 (X L0 , Y L0 ) (step S704). However, since the left and right are opposite depending on the orientation of the subject 101, the subject 101 is facing in the same direction as the moving body 301 (the front of the moving body 301 is facing the back of the subject 101). In addition, the state of the subject person 101 who can recognize both feet and the positional relationship between the moving body 301 are assumed to be a relation in which the subject identification process of FIG. 3 can be performed.

次に、両足のいずれか片方の座標が0.1秒以内に変化するか否かを、歩行状態取得部105で判断する(ステップS705)。   Next, the walking state acquisition unit 105 determines whether the coordinates of either one of both feet change within 0.1 seconds (step S705).

ステップS705で両足のいずれか片方の座標が0.1秒以内に変化したと判断された場合、対象者101が歩行を開始したと、歩行状態取得部105で判断して(ステップS706)、終了する。   When it is determined in step S705 that the coordinates of either one of both feet have changed within 0.1 seconds, the walking state acquisition unit 105 determines that the subject 101 has started walking (step S706), and the process ends. To do.

ステップS705で両足のいずれか片方の座標が0.1秒以内に変化しなかったと判断された場合、対象者101は歩行せずに停止していると、歩行状態取得部105で判断して、ステップS705に戻り、対象者101が歩行を開始するのを待つ。   If it is determined in step S705 that the coordinates of either one of both feet have not changed within 0.1 seconds, the walking state acquisition unit 105 determines that the subject 101 has stopped without walking, It returns to step S705 and waits for the subject person 101 to start walking.

また、ステップS206において、踏み出した足の位置が、歩行予想範囲内であったか否かを判断する処理、言い換えれば、歩行を開始した後の歩行の予測処理を、図9を用いて説明する。   In addition, the process of determining whether or not the position of the stepped foot in the step S206 is within the predicted walking range, in other words, the walking prediction process after starting the walking will be described with reference to FIG.

対象者101の両足の重心座標のうち、0.1秒以上座標が変化しない方の座標の足を軸足であると、歩行状態取得部105により判断する(ステップS801)。   The walking state acquisition unit 105 determines that the foot whose coordinates do not change for 0.1 second or more among the barycentric coordinates of both feet of the subject 101 is an axial foot (step S801).

移動した足の重心座標が存在するか否かを、歩行状態取得部105により判断する(ステップS802)。   The walking state acquisition unit 105 determines whether or not the barycentric coordinates of the moved foot exist (step S802).

ステップS802において移動した足の重心座標が存在すると判断された場合には、移動した足の重心座標の位置が歩行予想範囲601内であるか否かを、歩行状態取得部105により判断する(ステップS803)。   If it is determined in step S802 that the center of gravity coordinates of the moved foot exist, the walking state acquisition unit 105 determines whether the position of the center of gravity coordinate of the moved foot is within the predicted walking range 601 (step S802). S803).

ステップS803において移動した足の重心座標の位置が歩行予想範囲601内であると判断された場合には、歩行状態が正常であると、歩行状態取得部105により判断する(ステップS804)。   If it is determined in step S803 that the position of the center of gravity coordinates of the moved foot is within the predicted walking range 601, the walking state acquisition unit 105 determines that the walking state is normal (step S804).

次いで、ステップS207からステップS208などへ進み、次に移動する足の歩行予想範囲を歩行状態取得部105により予想して(ステップS805)、終了する。   Next, the process proceeds from step S207 to step S208, and the predicted walking range of the next moving foot is predicted by the walking state acquisition unit 105 (step S805), and the process ends.

ステップS802において移動した足の座標が、取得した画像上に存在しないと判断された場合、足が重なっていると、歩行状態取得部105により判断する(ステップS806)。例えば、図22から図23に示すように、右足が左足の前方に重なるように着地した場合には、カメラ103aの画像880上では、図23に示すような状態となる。   If it is determined in step S802 that the coordinates of the moved foot do not exist on the acquired image, the walking state acquisition unit 105 determines that the foot is overlapped (step S806). For example, as shown in FIGS. 22 to 23, when the right foot is landed so as to overlap the front of the left foot, the state shown in FIG. 23 is obtained on the image 880 of the camera 103a.

ステップS806に次いで、例えば、左足303を現在の軸足(A)、右足302を移動して次の軸足(B)とすると、次の軸足(B)である右足302の位置は、移動体301から現在の軸足(A)の左足303を通る半直線上の現在の軸足(A)の左足303から歩幅だけ進んだ位置にあると、歩行状態取得部105により推測する(ステップS807)。   Following step S806, for example, if the left foot 303 is the current axial foot (A) and the right foot 302 is moved to the next axial foot (B), the position of the right foot 302 that is the next axial foot (B) is moved. The walking state acquisition unit 105 estimates that the body 301 is located at a position advanced by a stride from the left foot 303 of the current axial foot (A) on a half line passing through the left foot 303 of the current axial foot (A) from the body 301 (step S807). ).

ステップS807に次いで、軸足(A)の左足303が移動したとき、推測した位置に軸足(B)の右足302があるか否かを、歩行状態取得部105により判断する(ステップS808)。   Following step S807, when the left foot 303 of the axial foot (A) moves, the walking state acquisition unit 105 determines whether or not the right foot 302 of the axial foot (B) is at the estimated position (step S808).

ステップS808で推測した位置に軸足(B)の右足302があったと判断された場合、ステップS805に進み、次の移動する左足303の歩行予想範囲を歩行状態取得部105により予想する。   When it is determined that the right foot 302 of the axial foot (B) is located at the position estimated in step S808, the process proceeds to step S805, and the walking state acquisition unit 105 predicts the predicted walking range of the left foot 303 to move next.

ステップS808で推測した位置に軸足(B)の右足302がなかったと判断された場合、歩行状態取得部105から速度が0で、かつ角度が0度の歩行ベクトル111を出力して、移動命令部117及び移動体301の駆動部119を介して、移動体301を停止させることができる(ステップS810)。   If it is determined that the right foot 302 of the axial foot (B) is not present at the position estimated in step S808, the walking state obtaining unit 105 outputs a walking vector 111 having a speed of 0 and an angle of 0 degrees, and a movement command The moving body 301 can be stopped via the unit 117 and the driving unit 119 of the moving body 301 (step S810).

また、ステップS803において移動した足の位置が歩行予想範囲外であったと判断された場合には、対象者101がバランスを崩していると、歩行状態取得部105により判断し(ステップS809)、ステップS810に進み、上述したように、歩行状態取得部105から速度が0で、かつ角度が0度の歩行ベクトル111を出力して、移動命令部117及び移動体301の駆動部119を介して、移動体301を停止させるようにする(ステップS810)。   If it is determined in step S803 that the position of the moved foot is outside the expected walking range, the walking state acquisition unit 105 determines that the subject 101 is out of balance (step S809). Proceeding to step S810, as described above, the walking state obtaining unit 105 outputs the walking vector 111 having a speed of 0 and an angle of 0 degrees, via the movement command unit 117 and the driving unit 119 of the moving body 301, The moving body 301 is stopped (step S810).

この場合、図24に示すように、時間t=tのときに左足303が何かでつまずき、時間t=tのときに対象者101が転げ始めて、時間t=tのときに対象者101が転げて、地面に両手をついたとする。なお、図24において、時間t=tの2つの対象者101は同一であり、時間t=tの2つの対象者101は同一であり、時間t=tと時間t=tの対象者101の動きを時間t=tの対象者101に重ねると、理解しづらくなるため、ずらせて示したものである。このように、対象者101が何かにつまずいて転げた場合には、つまずいた足の位置、又はつまずいた後に移動した足の位置が歩行予想範囲602外となる。 In this case, as shown in FIG. 24, stumbling with his left foot 303 is something at time t = t 2, starting tumbled the subject 101 at time t = t 3, the target at time t = t 4 Suppose that person 101 falls and puts both hands on the ground. In FIG. 24, two subjects 101 at time t = t 2 are the same, two subjects 101 at time t = t 3 are the same, and time t = t 2 and time t = t 3 If the movement of the subject 101 is superimposed on the subject 101 at time t = t 1 , it will be difficult to understand, so this is shown in a shifted manner. Thus, when the subject 101 trips over something, the position of the tripped foot or the position of the foot that has moved after tripping is outside the expected walking range 602.

そこで、次に移動した足の位置が歩行予想範囲602外となったことが歩行状態取得部105により判断されると、上述したように、歩行状態取得部105から速度が0で、かつ角度が0度の歩行ベクトル111を出力して、移動命令部117及び移動体301の駆動部119を介して、移動体301を停止させる。この結果、対象者101がバランスを崩して正常な歩行ができなくなると、すぐに、移動体301の移動を停止させることができる。   Therefore, when the walking state acquisition unit 105 determines that the position of the next moved foot is outside the predicted walking range 602, as described above, the walking state acquisition unit 105 has a speed of 0 and an angle of The walking vector 111 of 0 degree is output, and the moving body 301 is stopped via the movement command unit 117 and the driving unit 119 of the moving body 301. As a result, when the subject 101 loses balance and cannot normally walk, the movement of the moving body 301 can be stopped immediately.

なお、停止後は、正常な歩行が再開される可能性が高いので、ステップS200に戻り、歩行の開始を待つようにするのが好ましい。このようにすれば、一時的に、対象者101がつまずいて転げたとしても、すぐに立ち上がって、正常な歩行を開始したときには、移動体301による追跡動作を円滑に再開することができる。   Note that after stopping, there is a high possibility that normal walking will be resumed, so it is preferable to return to step S200 and wait for the start of walking. In this way, even if the subject 101 stumbles and falls temporarily, when the person 101 stands up immediately and starts normal walking, the tracking operation by the moving body 301 can be smoothly resumed.

また、所定時間以上、歩行開始がなかった場合には、表示装置902で異常を表示したり、警告装置で警告音を発したり、場合によっては、通信装置が搭載されている場合には、通信装置を使用して、所定の装置に警告信号を出力するようにしてもよい。   Further, when walking has not started for a predetermined time or longer, an abnormality is displayed on the display device 902, a warning sound is emitted from the warning device, or in some cases, when a communication device is installed, communication is performed. A warning signal may be output to a predetermined device using the device.

また、図25に示すように、対象者101がバランスを崩すなどして、時間t=tのときに左足303が大きく横に踏み出してしまい、歩行予想範囲602外の位置OhL11に出たときも、移動した足の位置が歩行予想範囲602外となる。そこで、次に移動した足の位置が歩行予想範囲602外となったことが歩行状態取得部105により判断されると、上述したように、歩行状態取得部105から速度が0でかつ角度が0度の歩行ベクトル111を出力し、移動命令部117及び移動体301の駆動部119を介して、移動体301を停止させる。この結果、対象者101がバランスを崩すなどして正常な歩行ができなくなると、移動体301の移動をすぐに停止させることができる。 Also, as shown in FIG. 25, the subject 101 loses balance, and the left foot 303 greatly steps sideways at time t = t 2 , so that the subject 101 comes out to a position Oh L11 outside the expected walking range 602. Sometimes, the position of the moved foot is outside the expected walking range 602. Therefore, when the walking state acquisition unit 105 determines that the position of the next moved foot is outside the predicted walking range 602, as described above, the walking state acquisition unit 105 has a speed of 0 and an angle of 0. The walking vector 111 is output, and the moving body 301 is stopped via the movement command section 117 and the driving section 119 of the moving body 301. As a result, if the target person 101 loses balance and cannot normally walk, the movement of the moving body 301 can be stopped immediately.

なお、停止後は、正常な歩行が再開される可能性が高いので、ステップS200に戻り、歩行の開始を待つようにするのが好ましい。このようにすれば、一時的に、対象者101がバランスを崩してよろけるなどしたとしても、すぐに正常な歩行を開始したときには、移動体301による追跡動作を円滑に再開することができる。   Note that after stopping, there is a high possibility that normal walking will be resumed, so it is preferable to return to step S200 and wait for the start of walking. In this way, even if the subject 101 temporarily loses his balance, the tracking operation by the moving body 301 can be smoothly resumed when normal walking is immediately started.

また、所定時間以上、歩行開始がなかった場合には、表示装置902で異常を表示したり、警告装置で警告音を発したり、場合によっては、通信装置が搭載されている場合には、通信装置を使用して、所定の装置に警告信号を出力するようにしてもよい。   Further, when walking has not started for a predetermined time or longer, an abnormality is displayed on the display device 902, a warning sound is emitted from the warning device, or in some cases, when a communication device is installed, communication is performed. A warning signal may be output to a predetermined device using the device.

(対象者の確認処理:ステップS300)
対象者101の確認処理のステップS300を図7のフローチャートを基に詳細に説明する。
(Subject confirmation process: step S300)
Step S300 of the confirmation process of the subject person 101 will be described in detail based on the flowchart of FIG.

まず、対象者101が歩行開始から2歩以上歩行したか否かを判断する(ステップS301)。ステップS301で歩行開始から2歩以上歩行していなかったと判断された場合には、そのまま、歩行開始から2歩以上歩行するまで待機する。   First, it is determined whether or not the subject 101 has walked two or more steps from the start of walking (step S301). If it is determined in step S301 that the user has not walked two or more steps since the start of walking, the process waits until the user walks two or more steps from the start of walking.

ステップS301で歩行開始から2歩以上歩行していたと判断された場合には、対象者判断部114に、対象者測定装置103からの時間t=t(例えば、現在)の対象者データ106か、又は、歩行状態取得部105で算出された時間t=t(例えば、現在)における対象者101の足データ113を入力する。また、対象者記憶部112で記憶された時間t=t−1(例えば、過去)における対象者記憶データ115も対象者判断部114に入力する(ステップS302)。 If it is determined in step S301 that the user has walked two or more steps from the start of walking, the subject determination unit 114 determines whether or not the subject data 106 at the time t = t 0 (for example, current) from the subject measurement device 103. Alternatively, the foot data 113 of the subject person 101 at the time t = t 0 (for example, current) calculated by the walking state acquisition unit 105 is input. Further, the target person storage data 115 at the time t = t −1 (for example, the past) stored in the target person storage unit 112 is also input to the target person determination unit 114 (step S302).

次いで、対象者判断部114において、対象者データ106又は対象者101の足データ113と、対象者記憶データ115とを比較して、一致するか否かを判断する(ステップS303)。ただし、対象者記憶データ115は必ず、対象者判断部114で比較する時間t=t(例えば、現在)における対象者データ106、又は時間t=t(例えば、現在)の対象者の足データ113、又は両方のデータと同じ種類のデータであるとする。 Next, the target person determination unit 114 compares the target person data 106 or the foot data 113 of the target person 101 with the target person storage data 115 to determine whether or not they match (step S303). However, the subject's foot subjects the stored data 115 always has time to compare subject determining section 114 t = t 0 (e.g., current) Target data 106 in, or time t = t 0 (e.g., current) It is assumed that the data 113 is the same type of data as the data 113 or both.

なお、処理始めのときに、過去のデータが存在しない場合には、t=tのときの対象者記憶データ115を用いてもよい。 Note that, when past data does not exist at the start of processing, the target person stored data 115 when t = t 0 may be used.

ステップS303で両者が一致すると判断された場合には、時間t=t(例えば、現在)における対象者確認データ116を対象者判断部114から移動命令部117に出力した後(ステップS304)、対象者101の歩行速度と角度算出処理(ステップS400)に進む。この対象者確認データ116が出力されることによって、現在認識している対象者101が、先に計測した対象者101に間違いないことを確認することができる。 If it is determined in step S303 that the two match, the target person confirmation data 116 at time t = t 0 (for example, current) is output from the target person determination unit 114 to the movement command unit 117 (step S304). The process proceeds to the walking speed and angle calculation process (step S400) of the subject person 101. By outputting the target person confirmation data 116, it can be confirmed that the target person 101 currently recognized is definitely the target person 101 measured previously.

ステップS303で両者が異なると判断された場合には、データ取得エラーを表示装置902で表示して(ステップS305)、対象者101の歩行状態データ取得処理(ステップS200)に戻る。   If it is determined in step S303 that the two are different, a data acquisition error is displayed on the display device 902 (step S305), and the process returns to the walking state data acquisition process of the subject 101 (step S200).

(対象者の歩行速度と角度算出処理:ステップS400)
対象者101の歩行速度と角度算出処理のステップS400を図6のフローチャートを基に詳細に説明する。
(Subject's walking speed and angle calculation processing: step S400)
Step S400 of the walking speed and angle calculation process of the subject person 101 will be described in detail based on the flowchart of FIG.

まず、対象者101が歩行開始から2歩以上歩行したか否かを判断する(ステップS401)。ステップS401で歩行開始から2歩以上歩行していなかったと判断された場合には、そのまま歩行開始から2歩以上歩行するまで待機する。   First, it is determined whether or not the subject 101 has walked two or more steps from the start of walking (step S401). If it is determined in step S401 that the user has not walked two or more steps since the start of walking, the process waits until the user walks two or more steps from the start of walking.

ステップS401で歩行開始から2歩以上歩行していたと判断された場合には、歩行状態取得部105から歩行状態データ108を歩行状態記憶部107に出力して記憶させる(ステップS402)。   If it is determined in step S401 that the user has walked two or more steps from the start of walking, the walking state acquisition unit 105 outputs the walking state data 108 to the walking state storage unit 107 for storage (step S402).

次いで、歩行状態判断部109によって、歩行状態取得部105から入力される時間t=t(例えば、現在)における歩行状態データ108と、歩行状態記憶部107で記憶した時間t=t−1(例えば、過去)における歩行状態データ110とを比較して、両者の差を算出する(ステップS403)。ここで、歩行状態データ108に含まれる歩幅は、予め、追跡装置1000に、対象者101又は一般的な人の歩幅の平均値を記憶させておいてもよい。又は対象者101の認識特定時(ステップS100)に、対象者101の身長の情報から歩幅を算出してもよい(例えば前記(身長×0.37≦歩幅≦身長×0.45)の式を使用してもよい)。なお、対象者101の身長の情報は画像情報から算出したり、直接、追跡装置1000に入力装置901から入力して教示させるようにしてもよい。 Next, the walking state determination unit 109 inputs the walking state data 108 at the time t = t 0 (for example, current) input from the walking state acquisition unit 105 and the time t = t −1 (stored in the walking state storage unit 107). For example, the walking state data 110 in the past) is compared and the difference between the two is calculated (step S403). Here, the stride included in the walking state data 108 may be stored in advance in the tracking device 1000 as an average value of the stride of the target person 101 or a general person. Alternatively, when the target person 101 is identified (step S100), the stride may be calculated from the height information of the target person 101 (for example, the equation (height × 0.37 ≦ step length ≦ height × 0.45) is used. May be used). The height information of the subject person 101 may be calculated from the image information, or may be directly input to the tracking device 1000 from the input device 901 and taught.

なお、処理始めのときに、過去のデータが存在しない場合には、t=tのときの歩行状態データを用いてもよい。さらに、過去データが存在しない場合の歩行ベクトル111の算出方法について、t=tのとき、歩行状態データの両足の座標データの中点の座標と両足の座標データのうち、移動体301に近い座標から歩行ベクトル111を算出してもよい。 If no past data exists at the start of processing, the walking state data at t = t 0 may be used. Furthermore, regarding the calculation method of the walking vector 111 when there is no past data, when t = t 0 , the coordinates of the middle point of the coordinate data of both feet of the walking state data and the coordinate data of both feet are close to the moving body 301. The walking vector 111 may be calculated from the coordinates.

次いで、歩行状態判断部109において、歩行状態データ108と歩行状態データ110とから算出された前記差より、歩行ベクトル111(速度と角度)を算出して(ステップS404)、対象者101の追跡処理(ステップS500)に進む。   Next, the walking state determination unit 109 calculates a walking vector 111 (speed and angle) from the difference calculated from the walking state data 108 and the walking state data 110 (step S404), and the target person 101 tracking process is performed. The process proceeds to (Step S500).

(対象者の追跡処理:ステップS500)
対象者101の追跡処理のステップS500を図7のフローチャートを基に詳細に説明する。
(Subject tracking process: step S500)
Step S500 of the tracking process of the subject person 101 will be described in detail based on the flowchart of FIG.

まず、時間t=t(例えば、現在)における対象者確認データ116と歩行ベクトル111とが移動命令部117に入力されたか否かを移動命令部117で判断する(ステップS501)。ステップS501で時間t=t(例えば、現在)における対象者確認データ116と歩行ベクトル111とが入力されていないと判断された場合には、対象者101の歩行状態データ取得処理(ステップS200)に戻る。 First, the movement command unit 117 determines whether or not the subject confirmation data 116 and the walking vector 111 at the time t = t 0 (for example, the present) are input to the movement command unit 117 (step S501). If it is determined in step S501 that the target person confirmation data 116 and the walking vector 111 at time t = t 0 (for example, current) are not input, the walking state data acquisition process for the target person 101 (step S200). Return to.

ステップS501で時間t=t(例えば、現在)における対象者確認データ116と歩行ベクトル111とが入力されていると判断された場合には、移動命令部117において、歩行ベクトル111から移動体301の速度と角度を算出する(ステップS502)。具体的には、移動体301の移動目標となる位置は、例えば、対象者101の右足302の位置座標と左足303の位置座標との中点の位置座標とする。そして、現在の移動体301の位置から前記中点の位置座標までの移動に関する速度と角度とを算出する。 If it is determined in step S501 that the target person confirmation data 116 and the walking vector 111 at time t = t 0 (for example, the current time) are input, the movement command unit 117 uses the walking vector 111 to move the moving object 301. Are calculated (step S502). Specifically, the position that is the movement target of the moving body 301 is, for example, the position coordinates of the midpoint between the position coordinates of the right foot 302 and the position coordinates of the left foot 303 of the subject 101. Then, the speed and angle relating to the movement from the current position of the moving body 301 to the position coordinates of the midpoint are calculated.

次いで、移動命令部117から表示装置902に、追随動作を開始する旨を表示させる(ステップS503)。表示装置902での表示の例としては、液晶表示装置に追随動作開始を表示するほか、表示装置902の別の例としてのスピーカから音声により追随動作開始を通知するようにしてもよい。   Next, the movement command unit 117 displays on the display device 902 that the following operation is to be started (step S503). As an example of display on the display device 902, in addition to displaying the start of the follow-up operation on the liquid crystal display device, the start of the follow-up operation may be notified by sound from a speaker as another example of the display device 902.

次いで、追跡装置1000の移動命令部117から、移動命令118を移動体301の駆動部119に伝える(ステップS504)。   Next, the movement command 118 is transmitted from the movement command unit 117 of the tracking device 1000 to the drive unit 119 of the moving body 301 (step S504).

次いで、移動命令118に基づき、移動体301の駆動部119が駆動を開始して、移動体301が、対象者101と所定の距離(最小距離)を保ちながら、対象者101を追跡するように、移動体301が移動又は制動される(ステップS505)。   Next, based on the movement command 118, the driving unit 119 of the moving body 301 starts driving so that the moving body 301 tracks the subject 101 while maintaining a predetermined distance (minimum distance) from the subject 101. The moving body 301 is moved or braked (step S505).

次いで、対象者101の追跡を終了する旨の命令が入力装置901などから入力されていないか否かを移動命令部117で判断する(ステップS506)。ステップS506で追跡終了命令が入力されていないと判断された場合には、対象者101の歩行状態データ取得処理(ステップS200)に戻る。ステップS506で追跡終了命令が入力されていると判断された場合には、対象者101の特定処理(ステップS100)に戻る。   Next, the movement command unit 117 determines whether or not a command to end the tracking of the subject person 101 has been input from the input device 901 or the like (step S506). If it is determined in step S506 that no tracking end command has been input, the process returns to the walking state data acquisition process (step S200) of the subject 101. If it is determined in step S506 that a tracking end command has been input, the process returns to the process for identifying the subject 101 (step S100).

次に、これらの追跡方法及び追跡装置を用いたシステムの例を、図26〜図27に基づいて説明する。   Next, an example of a system using these tracking methods and tracking devices will be described with reference to FIGS.

図1及び図26に示すシステムにおいて、移動体301が対象者101の追跡を行うことを想定する例を示す。ここでは、対象者101の歩行状態102の情報を用いて、移動体301が対象者101の後を追跡するように追跡装置1000により動作制御するようにしている。   In the system shown in FIG. 1 and FIG. 26, an example in which it is assumed that the moving body 301 tracks the target person 101 is shown. Here, using the information of the walking state 102 of the target person 101, the movement control is performed by the tracking device 1000 so that the moving body 301 tracks the back of the target person 101.

追跡装置1000は、まず、対象者101の特定処理(ステップS100)を行う。すなわち、対象者測定装置103としてカメラ103a及び画像処理部103bによって、対象者101の両足(対象者101の右足を302とし、左足を303と示す。)の画像を取得し、その両足302,303の座標を2次元的に測定する。   The tracking device 1000 first performs a process for identifying the target person 101 (step S100). That is, an image of both feet of the subject 101 (the right foot of the subject 101 is denoted by 302 and the left foot is denoted by 303) is acquired by the camera 103a and the image processing unit 103b as the subject measuring device 103, and both the feet 302 and 303 are obtained. Are measured two-dimensionally.

なお、対象者測定装置103は、対象者101の両足302,303に別々に具備された信号送信機から送信された両足302,303の信号を信号受信機で取得し、対象者101の両足302,303の情報を用いて、それぞれの座標を測定してもよい。   The subject measuring apparatus 103 acquires signals of both feet 302 and 303 transmitted from signal transmitters separately provided on both feet 302 and 303 of the subject 101 by a signal receiver, and both feet 302 of the subject 101 are obtained. , 303 may be used to measure the respective coordinates.

また、対象者101の右足302,左足303の画像、もしくは情報を、ディスプレイなどの表示装置902に表示して、対象者101が正しく判断されているかの確認が可能としている。このとき、場合によっては対象者101の右足302,左足303の位置修正などを入力装置901から入力して行ってもよい。   In addition, the image or information of the right foot 302 and the left foot 303 of the subject person 101 is displayed on a display device 902 such as a display, so that it can be confirmed whether the subject person 101 is correctly determined. At this time, in some cases, correction of the positions of the right foot 302 and the left foot 303 of the subject 101 may be input from the input device 901.

そして、対象者101の特定処理(ステップS100)が終了して、対象者101の特定が行われたのち、対象者101の歩行状態データを取得する歩行状態データ取得処理(ステップS200)が行われる。すなわち、対象者101の右足302,左足303についての情報は、対象者記憶データ115として記憶装置304に保存される。そして、取得された両足302,303の位置座標(座標の基準としては、例えば、移動体301の位置、あるいは時間t=tにおける歩行状態データを基準にすることが考えられる。)の情報と一歩前の時間例えば、現在がt=tならば、t=t−1における歩行状態データ110とを基に、歩行状態判断部109によって、歩行予想範囲601を算出するとともに、対象者101の歩行開始を待ち、歩行開始が行われると、2歩以上進むまで、先に記憶された情報を基に歩行予想範囲601を行う。 Then, after the target person 101 specifying process (step S100) is completed and the target person 101 is specified, a walking state data acquisition process (step S200) for acquiring the walking state data of the target person 101 is performed. . In other words, information regarding the right foot 302 and the left foot 303 of the subject 101 is stored in the storage device 304 as the subject storage data 115. And the information of the acquired position coordinates of both feet 302 and 303 (as the reference of the coordinates, for example, the position of the moving body 301 or the walking state data at time t = t 0 may be used as a reference). Time before one step, for example, if the current time is t = t 0 , the walking state determination unit 109 calculates the predicted walking range 601 based on the walking state data 110 at t = t −1 , and Waiting for the start of walking, and starting walking, the predicted walking range 601 is performed based on previously stored information until two or more steps are taken.

次いで、対象者101が2歩以上進むことにより、対象者101の歩行状態データ取得処理(ステップS200)が終了すると、対象者101の確認処理(ステップS300)を開始する。すなわち、追跡しようとしている対象者101が、最初に特定された対象者101と同一か否かを判断して、同一ならば、追跡動作開始のために、対象者101の歩行速度と角度算出処理(ステップS400)を行う。最初に特定された対象者101と同一でない場合には、追跡開始動作を停止する。これは、特定処理を行った後、別の人が対象者101と移動体301との間に入り込んだ場合、移動体301が誤って前記別の人を追跡するのを防止するための処理である。   Next, when the target person 101 advances two steps or more and the walking state data acquisition process (step S200) of the target person 101 is completed, the confirmation process (step S300) of the target person 101 is started. That is, it is determined whether or not the target person 101 to be tracked is the same as the target person 101 identified first. If the target person 101 is the same, the walking speed and angle calculation process of the target person 101 is started to start the tracking operation. (Step S400) is performed. If it is not the same as the target person 101 identified first, the tracking start operation is stopped. This is a process for preventing the mobile body 301 from tracking the other person by mistake when another person enters between the target person 101 and the mobile body 301 after performing the specific process. is there.

次いで、対象者101の歩行速度と角度算出処理(ステップS400)において、歩行状態取得部105の一例としての演算処理部によって歩行ベクトル111を求める。そして、歩行ベクトル111についての情報は、歩行状態記憶部107に保存される。   Next, in the walking speed and angle calculation process (step S400) of the subject person 101, the walking vector 111 is obtained by an arithmetic processing unit as an example of the walking state acquisition unit 105. Information about the walking vector 111 is stored in the walking state storage unit 107.

次いで、対象者の歩行速度と角度算出処理(ステップS400)を終了すると、対象者の追跡処理(ステップS500)を開始する。対象者の追跡処理(ステップS500)では、時間t=tにおける対象者確認データ116と歩行ベクトル111とにより、追跡装置1000の移動命令部117から移動命令118を移動体301の駆動部119に伝え、後述するように移動体301が、対象者101と所定の距離(最小距離)を保ちながら、対象者101を追跡する。 Next, when the walking speed and angle calculation process (step S400) of the subject is completed, the tracking process (step S500) of the subject is started. Target tracking processing (step S500), the subject's confirmation data 116 and walking vector 111 at time t = t 0, a movement command 118 from the movement command unit 117 of the tracking unit 1000 to the driving unit 119 of the mobile unit 301 As described later, the moving body 301 tracks the subject 101 while maintaining a predetermined distance (minimum distance) from the subject 101.

このとき、移動体301の移動目標となる位置は、例えば、対象者101の右足302の位置座標と左足303の位置座標との中点の位置座標とする。そして、現在の移動体301の位置から前記中点の位置座標までの移動に関する速度と角度とを算出して、算出された速度と角度に基づき移動体301の駆動部119が駆動制御される。   At this time, the position that is the movement target of the moving body 301 is, for example, the position coordinates of the midpoint between the position coordinates of the right foot 302 and the position coordinates of the left foot 303 of the subject 101. Then, the speed and angle relating to the movement from the current position of the moving body 301 to the position coordinates of the middle point are calculated, and the drive unit 119 of the moving body 301 is driven and controlled based on the calculated speed and angle.

その後、対象者101が1歩踏み出すごとに、歩行予想範囲を作成し、歩行予想範囲内に足の着地を確認し、再度、歩行予想範囲を作成し、歩行予想範囲内に足の着地を確認する処理を続ける一方、対象者101の右足302の位置座標と左足303の位置座標との中点の位置座標に向けて、移動体301の駆動部119が駆動制御されて追跡動作を行う。この結果、図26及び図27に示すように、歩行する対象者101を移動体301が円滑に追跡することができる。   After that, each time the target person 101 takes one step, a predicted walking range is created, the foot landing is confirmed within the predicted walking range, the predicted walking range is created again, and the landing of the foot is confirmed within the predicted walking range. On the other hand, the driving unit 119 of the moving body 301 is driven and controlled to perform the tracking operation toward the position coordinates of the midpoint between the position coordinates of the right foot 302 and the position coordinates of the left foot 303 of the subject 101. As a result, as shown in FIGS. 26 and 27, the moving body 301 can smoothly track the walking target person 101.

前記実施形態によれば、前記対象者101の歩行状態の情報を検知し、前記対象者101の歩行ベクトル111(言い換えれば歩行速度と歩行角度、よって、歩行経路)を検知し、検知された前記歩行状態と前記歩行速度と前記経路の情報に基づいて、前記対象者101の歩行予想範囲を予想することにより、前記対象者101の歩行が歩行予想範囲内で行われるのを確認しながら、前記移動体301が前記対象者101の歩行経路に沿って移動させるように制御することができる。   According to the embodiment, the information on the walking state of the target person 101 is detected, and the walking vector 111 of the target person 101 (in other words, the walking speed and the walking angle, and thus the walking route) is detected and detected. Based on the walking state, the walking speed, and the route information, by predicting the predicted walking range of the target person 101, while confirming that the walking of the target person 101 is performed within the predicted walking range, The moving body 301 can be controlled to move along the walking route of the subject 101.

このようにすれば、前記対象者101の歩行経路が種々変化しても、それに追随して移動体301を移動させることができる。従って、対象者101の追従移動の突発的な動きに関係なく、移動体301は、容易かつ確実に対象者101の移動経路を追従することができるようになる。   In this way, even if the walking route of the subject 101 changes variously, the moving body 301 can be moved following the change. Accordingly, the moving body 301 can follow the movement path of the subject 101 easily and reliably regardless of the sudden movement of the follow-up movement of the subject 101.

例えば、対象者101の前方に障害物が突然現れたとき、又は障害物が対象者101に近づいてきたときなどの場合には、対象者101が突然後ろに下がったり、突然横に移動する場合が考えられる。また、対象者101が、突然、何かにつまずいて転びかけたり、大きくよろめいたりする場合も考えられる。このような対象者101の突発的な移動が生じても、前記対象者101の歩行予想範囲を予想して、予想が外れたときには、再度、歩行予想範囲を予想しなおして、前記対象者101の歩行経路に沿って移動体301を移動させることができる。   For example, when an obstacle suddenly appears in front of the subject 101, or when an obstacle approaches the subject 101, the subject 101 suddenly falls back or suddenly moves sideways. Can be considered. In addition, there may be a case where the target person 101 suddenly stumbles over something or sways greatly. Even if such a sudden movement of the target person 101 occurs, when the predicted walking range of the target person 101 is predicted and the prediction is not satisfied, the predicted walking range is predicted again and the target person 101 is re-estimated. The moving body 301 can be moved along the walking route.

また、歩行状態取得部105におして対象者101の両足の位置座標を検知するとき、一定時間以上(例えば0.1秒より長い時間)、同じ位置にある対象者101の足の位置座標の足を、着地している足であると判断することにより、足が地面と確実に接地する時点を確実に検知することができ、かつ、移動体301の移動目標の位置座標を算出するための前記中点の位置座標が確実に得られ、このような対象者101の歩行状態の情報から、移動体301の移動速度や移動経路を確実に算出することができて、移動体301を安定して移動制御することが可能になる。   Further, when the position coordinates of both feet of the subject 101 are detected in the walking state acquisition unit 105, the feet of the position coordinates of the feet of the subject 101 at the same position for a certain time or longer (for example, longer than 0.1 seconds). Can be reliably detected when the foot is in contact with the ground, and the position coordinates of the moving target of the moving body 301 can be calculated. The position coordinates of the midpoint can be obtained with certainty, and the moving speed and moving path of the moving body 301 can be reliably calculated from such information on the walking state of the subject 101, so that the moving body 301 can be stably It becomes possible to control movement.

また、対象者101における突発的な動きの他の例として、対象者101が後ずさりして、対象者101が移動体301に最小距離以下に近づいた場合には、移動体301の移動を即座に停止させるようにすれば、移動体301が対象者101に衝突することを確実に防止することができる。   Further, as another example of the sudden movement of the target person 101, when the target person 101 moves backward and the target person 101 approaches the moving body 301 below the minimum distance, the moving of the moving body 301 is immediately performed. If it is made to stop, it can prevent reliably that the mobile body 301 collides with the subject 101. FIG.

また、対象者101の移動した足の座標が、取得した画像880上に存在しないと判断された場合、足が重なっていると、歩行状態取得部105により判断して、その足の位置座標を推定することもでき、足が重なったときでも、対象者101の歩行の予想を確実に行うことができる。   Further, when it is determined that the coordinates of the moved foot of the subject 101 do not exist on the acquired image 880, the walking state acquisition unit 105 determines that the foot is overlapped, and the position coordinate of the foot is determined. It can also be estimated, and even when the feet overlap, the target person 101 can be reliably predicted to walk.

本発明の他の実施形態に係る移動体の対象者同行方法及び移動体用対象者同行装置の一例としては、対象者先行(対象者に先行して移動体を移動させる)方法及び装置がある。図28の対象者先行方法及び装置では、対象者101を移動体301が先行することを想定する例を示す。   As an example of a moving object subject accompaniment method and a moving object object accompaniment apparatus according to another embodiment of the present invention, there is an object preceding (moving moving object preceding an object person) method and apparatus. . In the subject preceding method and apparatus of FIG. 28, an example in which it is assumed that the subject 101 is preceded by the moving body 301 is shown.

ここでは、対象者101の歩行状態102の情報を用いて、移動体301が先行することを想定する。言い換えれば、移動体301は、対象者101が歩行しようとする経路に沿って対象者101よりも常に前を移動する場合であり、先行させる場合の大きな目的としては、人の見えるところに移動体301が常に存在するという安心感を対象者101に与えるためである。なお、対象者先行方法及び装置は、基本的に、前記対象者歩行追跡方法及び装置と同様な構造及び動作を行うが、移動体301が対象者101よりも先行する点で大きく異なるだけである。   Here, it is assumed that the moving body 301 precedes using the information of the walking state 102 of the subject person 101. In other words, the moving object 301 is a case where the object person 101 always moves in front of the object person 101 along a route on which the object person 101 is going to walk. This is to give the subject 101 a sense of security that 301 is always present. Note that the subject preceding method and device basically perform the same structure and operation as the subject walking tracking method and device, except that the moving body 301 precedes the subject 101. .

この場合、対象者101の顔面を401とし、また右足を302、左足を303として示す。移動体301は、対象者測定装置103としてのカメラ103a及び画像処理部103bによって対象者101の顔面400、及び両足302,303の画像を取得し、その両足302,303の座標を2次元的に測定し、その顔面401を対象者認識(特定)用情報とする。   In this case, the face of the subject 101 is denoted by 401, the right foot is denoted by 302, and the left foot is denoted by 303. The moving body 301 acquires images of the face 400 and both feet 302 and 303 of the target person 101 by the camera 103a and the image processing unit 103b as the target person measuring apparatus 103, and coordinates of the both feet 302 and 303 are two-dimensionally obtained. Measurement is performed, and the face 401 is used as information for identifying (identifying) the target person.

なお、対象者測定装置103は、対象者101の両足302,303に別々に具備された信号送信機から送信された両足302,303の信号を信号受信機で取得し、対象者101の両足302,303の情報を用いて、それぞれの座標を測定してもよい。   The subject measuring apparatus 103 acquires signals of both feet 302 and 303 transmitted from signal transmitters separately provided on both feet 302 and 303 of the subject 101 by a signal receiver, and both feet 302 of the subject 101 are obtained. , 303 may be used to measure the respective coordinates.

また、前記対象者の特定処理(ステップS100)と同様に、対象者101の顔面401,右足302,左足303の画像もしくは情報を、ディスプレイなどの表示装置902に表示して、対象者101の確認を行ってもよい。このとき、場合によっては対象者101の右足302,左足303の位置修正などを行ってもよい。   Further, in the same manner as the target person specifying process (step S100), the image or information of the face 401, the right foot 302, and the left foot 303 of the target person 101 is displayed on the display device 902 such as a display to confirm the target person 101. May be performed. At this time, the position correction of the right foot 302 and the left foot 303 of the subject 101 may be performed depending on circumstances.

そして、前記対象者の歩行状態データ取得処理(ステップS200)と同様に、対象者101の右足302,左足303についての情報は、歩行状態記憶データとして歩行状態記憶部107に保存される。また対象者101の顔面401についての情報は、対象者記憶データ115として対象者記憶部112に保存される。   And the information about the right foot 302 and the left foot 303 of the subject 101 is stored in the walking state storage unit 107 as the walking state storage data, similarly to the walking state data acquisition process (step S200) of the subject. Information about the face 401 of the subject 101 is stored in the subject storage unit 112 as subject storage data 115.

そして、前記対象者の確認処理(ステップS300)と対象者の歩行速度と角度算出処理(ステップS400)と対象者の追跡処理(ステップS500)と同様に、取得された両足302,303の座標の情報を基に、追跡装置1000に設けられた歩行状態取得部105としての演算処理装置によって、歩行ベクトル111を求める。そして、歩行ベクトル111についての情報は、歩行状態記憶部107に保存される。歩行状態判断部109では、歩行の一歩手前の時間t=t−1における歩行状態データ110によって、次の歩行予想範囲の作成を行う。 Then, similar to the confirmation process (step S300) of the subject person, the walking speed and angle calculation process (step S400) of the subject person, and the tracking process (step S500) of the subject person, Based on the information, the walking vector 111 is obtained by an arithmetic processing device as the walking state acquisition unit 105 provided in the tracking device 1000. Information about the walking vector 111 is stored in the walking state storage unit 107. The walking state determination unit 109 creates the next predicted walking range based on the walking state data 110 at time t = t −1 immediately before walking.

ここで、ステップ400の対象者の歩行速度と角度算出処理において、過去データが存在しない場合の歩行ベクトル111の算出方法について、t=tのとき、歩行状態データの両足の座標データの中点の座標と両足の座標データのうち、移動体301に遠い座標から歩行ベクトル111を算出してもよい。 Here, in the walking speed and angle calculation process of the subject's step 400, the method for calculating the walk vector 111 in the case where the past data is not present, when t = t 0, the midpoint of the coordinate data of both feet of the walking state data The walking vector 111 may be calculated from the coordinates farther from the moving body 301 among the coordinates and the coordinate data of both feet.

次に、これらの制御方法に用いる歩行状態データ108と、その歩行ベクトル111との決定方法について、図29に基づいて説明する。   Next, a method for determining the walking state data 108 used in these control methods and the walking vector 111 will be described with reference to FIG.

図29では、対象者101の時間t=tのときの両足の足跡(右足302、左足303)の位置情報が、歩行状態データ108となる。また、時間t=tのときの両足の中点501と時間t=tのときの両足の中点502を結んだ線分を歩行ベクトル111とする。 In Figure 29, the position information of the footprint both feet at time t = t 0 of the subject 101 (the right foot 302, left foot 303) becomes the walking state data 108. Also, a line segment connecting the midpoint 501 of both feet when the time t = t 0 and the midpoint 502 of both feet when the time t = t 1 is defined as the walking vector 111.

図29において、歩行状態データ108として、時間t=tのときの右足302、左足303のそれぞれの位置の位置座標をOhR0、OhL0とし、時間t=tのとき、位置座標OhL0にある左足303を軸足として接地した状態で、右足302を移動させた位置をOhR1とする。また、右足302の位置OhR1から左足の位置座標OhL1、左足の位置座標OhL1から右足の位置座標OhR2、右足の位置座標OhR2から左足の位置座標OhL2は、同様の歩行により時間の経過とともに定まるとする。 29, as the walking state data 108, the right foot 302 at time t = t 0, the position coordinates of the respective positions of the left foot 303 and Oh R0, Oh L0, at time t = t 1, the position coordinates Oh L0 A position where the right foot 302 is moved in a state where the left foot 303 located on the ground is grounded with the shaft foot as an axial foot is referred to as Oh R1 . Also, the right foot 302 from the position Oh R1 to the left foot position coordinate Oh L1, the left foot position coordinate Oh L1 to the right foot position coordinate Oh R2 , and the right foot position coordinate Oh R2 to the left foot position coordinate Oh L2 are timed by the same walking. Suppose that it will be determined as time passes.

ここでは、時間t=tのときの右足302の位置の位置座標OhR0と時間t=tのときの右足302の位置の位置座標OhR1を結んだ線分を歩行ベクトル111とする。なお、左足303を用いて、同様に歩行ベクトル111を求めてもよい。 Here, the position coordinates Oh R0 and the time t = t walk vector 111 position line segment connecting the coordinates Oh R1 position of the right foot 302 when the 1 position of the right foot 302 at time t = t 0. Note that the walking vector 111 may be similarly obtained using the left foot 303.

この他の実施形態では、足跡の爪先の方向から次の歩行予想範囲を予想してもよい。   In this other embodiment, the next expected walking range may be predicted from the direction of the toe of the footprint.

前記歩行状態データ108を用いることで、歩行予想範囲を限定することができる。なお、両足の位置が歩行予想範囲外ならば、対象者101が不規則な動きをしたと判断し、移動体301は、一時停止、又は音や光などで警告を促してもよい。   By using the walking state data 108, the expected walking range can be limited. Note that if the position of both feet is outside the expected walking range, it may be determined that the subject 101 has made an irregular movement, and the moving body 301 may urge the warning by a temporary stop or sound or light.

なお、歩行状態取得部105において両足を位置検知するとき、一定時間以上同じ位置にある対象者101の足の位置座標を検知する手段と、該検知された足の位置座標データを記憶する手段を備えている。また、前記足の位置座標の判断において、足が同じ位置にある時間を0.1秒より大(S>0.1秒)のときには足が同じ位置にあるとみなすと設定することが望ましく、このように設定することによって、足が地面と確実に接地する時点で前記中点のポイントが得られ、歩行状態データ108から速度や方向予測を、安定して軌跡のポイントに基づいて行うことが可能になる。   When detecting the position of both feet in the walking state acquisition unit 105, means for detecting the position coordinate of the foot of the subject 101 who is in the same position for a certain period of time and means for storing the position coordinate data of the detected foot I have. Further, in the determination of the position coordinates of the foot, it is desirable to set that the time that the foot is in the same position is considered to be in the same position when the time is longer than 0.1 seconds (S> 0.1 seconds), By setting in this way, the midpoint point is obtained when the foot is surely in contact with the ground, and speed and direction prediction can be stably performed based on the locus point from the walking state data 108. It becomes possible.

また、各足の着地状態の検出は、前記足の位置座標が所定時間(例えば、0.1秒)より長く同じ若しくは所定の許容範囲(歩行ではなく足踏みしているなどとみなすことができ、実際には歩行を開始していないと判断できる範囲、例えば、検出した足の位置座標から半径Rの円の範囲、許容範囲の数値例としては、0<許容範囲の半径R≦歩幅×130%)内の位置に位置しているときに検出することができる他、画像処理部により、足の裏が見えたときには足は着地しておらず、足の裏がほとんど見えなくなる状態が所定時間続くと、着地したと検出できるようにしてもよい。 In addition, the detection of the landing state of each foot can be regarded as the position coordinates of the foot being the same or a predetermined allowable range longer than a predetermined time (for example, 0.1 seconds) (stepping instead of walking, etc., in practice, a range that can be determined that has not started walking, for example, the range of the circle of radius R t from the position coordinates of the detected feet, as a numerical example of the allowable range, 0 <a radius R t ≦ stride × tolerance 130%), and the image processing unit does not land when the sole of the foot is visible, and the state where the sole of the foot is almost invisible is predetermined. If the time continues, it may be possible to detect the landing.

また、対象者101にGPSなどの位置情報を発信する機器を具備し、本発明と組み合わせて使用してもよい。   Moreover, the apparatus which transmits position information, such as GPS, to the subject person 101 may be provided and used in combination with the present invention.

また、移動体としては、倒立2輪走行車や4輪走行車の他に、倒立2輪又は二足歩行ロボットも含むこともできる。   In addition to an inverted two-wheel vehicle and a four-wheel vehicle, the moving body can also include an inverted two-wheel or biped robot.

なお、前記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。   It is to be noted that, by appropriately combining any of the various embodiments, the effects possessed by them can be produced.

本発明は、図面を参照しながら好ましい実施形態に関連して説明されているが、当業者にとっては種々の変形あるいは修正は明白である。そのような変形や修正は、添付した請求の範囲による本発明の技術思想の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。   While the present invention has been described in connection with preferred embodiments with reference to the drawings, various changes and modifications will be apparent to those skilled in the art. Such changes and modifications are to be understood as included within the scope of the inventive concept according to the appended claims.

本発明の移動体の対象者同行方法及び移動体用対象者同行装置は、対象者の各種追跡用移動体を用いて対象者を自動的に追跡するための追跡方法及び追跡装置に適用され、特に追跡対象者の突発的な動きに対応して、容易かつ確実に対象者の移動経路を追跡することが要求される歩行追跡装置に実施して有効である。   The mobile object accompaniment method and mobile object accompaniment device of the present invention are applied to a tracking method and tracking apparatus for automatically tracking an object using various tracking mobile objects of the object, In particular, the present invention is effective when applied to a walking tracking apparatus that is required to easily and surely track the movement path of the subject in response to the sudden movement of the subject.

本発明の一実施形態である歩行追跡装置と該歩行追跡装置を搭載した移動体の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of a gait tracking device according to an embodiment of the present invention and a mobile object equipped with the gait tracking device. 本実施形態に係る歩行追跡装置が搭載された移動体と、追跡対象の対象者とを示す説明図Explanatory drawing which shows the mobile body by which the walk tracking apparatus which concerns on this embodiment is mounted, and the target person of tracking object 本実施形態に係る歩行追跡装置が搭載された移動体による自動歩行追跡方法の処理ステップに係るフローチャートThe flowchart which concerns on the processing step of the automatic walk tracking method by the moving body by which the walk tracking apparatus which concerns on this embodiment is mounted. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者の特定処理を示すフローチャートThe flowchart which shows the specific process of the subject of the walk tracking method by the walk tracking apparatus which concerns on this embodiment. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者の歩行状態データ取得処理を示すフローチャートThe flowchart which shows the subject's walk state data acquisition process of the walk tracking method by the walk tracking apparatus which concerns on this embodiment. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者の確認処理を示すフローチャートThe flowchart which shows the confirmation process of the subject of the walk tracking method by the walk tracking apparatus which concerns on this embodiment. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者の歩行速度と角度算出処理を示すフローチャートThe flowchart which shows the walk speed and angle calculation process of the subject of the walk tracking method by the walk tracking apparatus which concerns on this embodiment. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者の追跡処理を示すフローチャートThe flowchart which shows the tracking process of the subject of the walk tracking method by the walk tracking apparatus which concerns on this embodiment. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者の歩行開始の認識方法を示すフローチャートThe flowchart which shows the recognition method of the walk start of the subject of the walk tracking method by the walk tracking apparatus which concerns on this embodiment. 本実施形態に係る歩行追跡装置による歩行追跡方法の対象者が歩行を開始したのちの歩行の予測方法を示すフローチャートThe flowchart which shows the prediction method of the walk after the subject of the walk tracking method by the walk tracking apparatus which concerns on this embodiment starts a walk. 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの歩行開始状態(対象者の左足が右足よりも一歩前に出た状態)の対象者とそのときの両足の2次元座標とを対応させて示す説明図In the walking tracking method by the walking tracking apparatus according to the present embodiment, the target person in the walking start state at the time t = t 0 (the state in which the subject's left foot is one step ahead of the right foot) and the both feet at that time Explanatory drawing showing two-dimensional coordinates in correspondence 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの歩行開始状態(図10の状態)で移動体が対象者を追跡しようとしている一例を示す説明図In walking tracking method according to the walking tracking device according to the present embodiment, explanation diagram showing an example in which the mobile is attempting to track the subject walking start state at time t = t 0 (the state of FIG. 10) 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの歩行開始状態(図10の状態すなわち両足は着地している状態)でカメラにより取得される画像とその画像の中で注目する画像領域とを示す図In the walking tracking method by the walking tracking device according to the present embodiment, an image acquired by the camera in the walking start state at the time t = t 0 (the state of FIG. 10, that is, both feet are landing) and the image Figure showing the image area of interest 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときに、時間t=tのときの正常歩行状態の歩行予想範囲を図10の上に重ねて示す説明図In the walk tracking method by the walk tracking device concerning this embodiment, when time t = t 0 , explanatory drawing which shows the walk expected range of the normal walking state at time t = t 1 on FIG. 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=t’のとき(右足は地面から上がって浮いている状態)に、時間t=tのときの正常歩行状態の歩行予想範囲を図12に重ねて示す図In the walking tracking method by the walking tracking apparatus according to the present embodiment, when time t = t 0 ′ (the right foot is floating above the ground), the walking prediction in the normal walking state at time t = t 1 Diagram showing range overlaid on FIG. 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=t’のとき(右足は地面から上がって浮いている状態)に、時間t=tのときの正常歩行状態の歩行予想範囲を図12に重ねて示す図であって、歩行予想範囲の全部を明示した場合の図In the walking tracking method by the walking tracking apparatus according to the present embodiment, when time t = t 0 ′ (the right foot is floating above the ground), the walking prediction in the normal walking state at time t = t 1 FIG. 13 is a diagram showing the range overlaid on FIG. 12 when the entire expected walking range is clearly shown. 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=t’’のとき(右足は着地前で浮いている状態)に、時間t=tのときの正常歩行状態の歩行予想範囲を図12に重ねて示す図In the walking tracking method by the walking tracking apparatus according to the present embodiment, when time t = t 0 ″ (the right foot is floating before landing), the walking prediction in the normal walking state at time t = t 1 Diagram showing range overlaid on FIG. 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの正常歩行状態(対象者の右足が左足よりも一歩前に出た状態)の対象者とそのときの両足の2次元座標とを対応させて示す説明図In the walking tracking method by the walking tracking apparatus according to the present embodiment, the subject in the normal walking state (the state where the subject's right foot has come out one step ahead of the left foot) at time t = t 1 and the both feet at that time Explanatory drawing showing two-dimensional coordinates in correspondence 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのとき(図17の状態すなわち右足が着地した状態)の正常歩行状態でカメラにより取得される画像とその画像の中で注目する画像領域とを示す図In the walking tracking method by the walking tracking device according to the present embodiment, the image acquired by the camera in the normal walking state at time t = t 1 (the state of FIG. 17, that is, the state where the right foot has landed) and the image Diagram showing image area of interest 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの正常歩行状態(図17の状態)で移動体が対象者を追跡しようとしている一例を示す説明図In walking tracking method according to the walking tracking device according to the present embodiment, explanation diagram showing an example in which the mobile is attempting to track the subject in a normal walking state (state of FIG. 17) at time t = t 1 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの正常歩行状態(対象者の左足が右足よりも一歩前に出た状態)の対象者とそのときの両足の2次元座標とを対応させて示す説明図In the walking tracking method by the walking tracking device according to the present embodiment, the target person in the normal walking state at the time t = t 2 (the state in which the subject's left foot is one step ahead of the right foot) and the both feet at that time Explanatory drawing showing two-dimensional coordinates in correspondence 本実施形態に係る歩行追跡装置による歩行追跡方法において、時間t=tのときの正常歩行状態(図20の状態)で移動体が対象者の追跡を開始している一例を示す説明図In the walking tracking method by the walking tracking apparatus which concerns on this embodiment, explanatory drawing which shows an example in which the mobile body has started tracking a subject in the normal walking state (state of FIG. 20) at time t = t 2 . 対象者の右足が左足の前方に重なるように着地しかけている状態を示す説明図Explanatory drawing which shows the state where it is about to land so that the subject's right foot overlaps the front of the left foot 対象者の右足が左足の前方に重なるように着地した状態を示す説明図Explanatory drawing which shows the state which landed so that a subject's right foot may overlap with the front of a left foot 時間t=tのときに対象者の左足が何かでつまずき、時間t=tのときに対象者が転げ始めて、時間t=tのときに対象者が転げて、地面に両手をついたときを示す説明図At time t = t 2 , the subject's left foot trips over something, at time t = t 3 , the subject starts to roll, and at time t = t 4 , the subject rolls and holds both hands on the ground Explanatory diagram showing when connected 対象者がバランスを崩すなどして、時間t=tのときに左足が大きく横に踏み出してしまい、歩行予想範囲外の位置に出たときを示す説明図And subjects such imbalance, explanatory view showing a time left foot is leaving the greater will be taken next, walking expected range of positions at time t = t 2 本実施形態に係る歩行追跡装置が搭載された移動体による自動歩行追跡方法の具体例を説明するための説明図Explanatory drawing for demonstrating the specific example of the automatic walk tracking method by the moving body by which the walk tracking apparatus which concerns on this embodiment is mounted. 本実施形態に係る歩行追跡装置が搭載された移動体による自動歩行追跡方法の他の具体例を説明するための説明図Explanatory drawing for demonstrating the other specific example of the automatic walk tracking method by the moving body by which the walk tracking apparatus which concerns on this embodiment is mounted. 本発明の他の実施形態に係る歩行追跡装置が搭載された移動体による自動歩行追跡方法における対象者の歩行速度と歩行方向との決定方法の例を示す説明図Explanatory drawing which shows the example of the determination method of the subject's walking speed and walking direction in the automatic walking tracking method by the moving body by which the walking tracking apparatus which concerns on other embodiment of this invention is mounted. 図28の実施形態に係る歩行追跡装置が搭載された移動体による自動歩行追跡方法における対象者の歩行状態の例を示す説明図Explanatory drawing which shows the example of the walk state of the subject in the automatic walk tracking method by the moving body by which the walk tracking apparatus which concerns on embodiment of FIG. 28 is mounted. 従来の移動体の追跡方法を説明するためのブロック図Block diagram for explaining a conventional method of tracking a moving object

符号の説明Explanation of symbols

101 対象者
103 対象者測定装置
105 歩行状態取得部
106 対象者データ
107 歩行状態記憶部
108 歩行状態データ
109 歩行状態判断部
110 歩行状態データ
111 歩行ベクトル
112 対象者記憶部
113 足データ
114 対象者判断部
115 対象者記憶データ
116 対象者確認データ
117 移動命令部
118 移動命令
119 駆動部
301 移動体
1000 追跡装置
DESCRIPTION OF SYMBOLS 101 Target person 103 Target person measuring device 105 Walking state acquisition part 106 Target person data 107 Walking state memory | storage part 108 Walking state data 109 Walking state judgment part 110 Walking state data 111 Walking vector 112 Target person memory part 113 Foot data 114 Target person judgment Unit 115 Target person stored data 116 Target person confirmation data 117 Movement command unit 118 Movement command 119 Drive unit 301 Moving object 1000 Tracking device

Claims (20)

対象者の移動に従って移動体が移動する移動体の対象者同行方法であって、
前記対象者の足の着地状態を検知し、
前記対象者の歩行方向を検知し、
検知された前記足の着地状態と前記方向の情報に基づいて、前記対象者の歩行予想範囲を予想し、予想された歩行予想範囲内に前記対象者の歩行による足の着地状態を検知して、前記移動体が前記対象者の歩行方向に沿って移動するように制御することを特徴とする移動体の対象者同行方法。
A method for accompaniing a moving object in which the moving object moves according to the movement of the object,
Detecting the landing state of the subject's feet,
Detecting the walking direction of the subject,
Based on the detected landing state of the foot and the information on the direction, the predicted walking range of the target person is predicted, and the landing state of the foot due to the walking of the target person is detected within the predicted walking predicted range. The method of accompanying a moving object with a subject, wherein the moving object is controlled to move along the walking direction of the subject.
前記対象者の歩行予想範囲は、前記対象者の着地している足の座標を中心とし、かつ前記対象者の歩幅から求められた半径を持つ、前記対象者の前記歩行方向に向けられた扇形の範囲であることを特徴とする請求項1記載の移動体の対象者同行方法。   The expected walking range of the subject is a sector oriented in the walking direction of the subject with the radius determined from the stride of the subject and centered on the coordinates of the foot of the subject landing The method according to claim 1, wherein the moving object is accompanied by a subject. 前記足の着地状態を検知するとき、前記対象者を判別し、前記対象者の両足の位置座標を検知することを特徴とする請求項1記載の移動体の対象者同行方法。   The method for accompanying a moving object subject according to claim 1, wherein when the landing state of the foot is detected, the subject is discriminated and position coordinates of both feet of the subject are detected. 前記足の着地状態を検知するとき、前記対象者の両足を検知し、前記対象者の前記両足の位置座標を検知することを特徴とする請求項1記載の移動体の対象者同行方法。   2. The method according to claim 1, wherein when the landing state of the foot is detected, both feet of the subject are detected and position coordinates of the both feet of the subject are detected. 前記両足の位置座標を検知するとき、一定時間以上同じ位置座標にある前記対象者の足を着地している足と判断し、前記対象者の前記着地している足の位置座標を記憶することを特徴とする請求項4記載の移動体の対象者同行方法。   When detecting the position coordinates of both feet, it is determined that the foot of the subject is in the same position coordinates for a certain time or more, and the position coordinates of the landing foot of the subject is stored. The method according to claim 4, wherein the subject is accompanied by a moving object. 前記一定時間以上同じ位置座標にある前記対象者の前記足を判断するとき、前記足が同じ位置座標にある時間を0.1秒より大に設定することを特徴とする請求項5記載の移動体の対象者同行方法。   6. The movement according to claim 5, wherein when the foot of the subject who is at the same position coordinate for the predetermined time or more is determined, the time for which the foot is at the same position coordinate is set to be greater than 0.1 seconds. How to accompany the body. 前記両足の位置座標を検知するとき、地面に着地している前記対象者の前記足の位置座標を検知し、前記対象者のその足の位置座標を記憶することを特徴とする請求項4記載の移動体の対象者同行方法。   5. The position coordinates of the feet of the subject landing on the ground are detected when the position coordinates of the feet are detected, and the position coordinates of the feet of the subject are stored. How to accompany an object of a moving object. 前記移動体が前記対象者の歩行方向に沿って移動するように制御するとき、既に検知されている前記対象者の前記両足の位置情報から前記対象者の両足を結ぶ線分の中点と、次の一歩における前記対象者の両足を結ぶ線分の中点とを繋げることにより前記移動体の移動方向を生成し、生成された前記移動体の移動方向により前記移動体を移動するように制御することを特徴とする請求項1記載の移動体の対象者同行方法。   When controlling the moving body to move along the walking direction of the subject person, the midpoint of a line segment connecting both feet of the subject person from the position information of the both feet of the subject person already detected, Control is made so as to generate the moving direction of the moving body by connecting the midpoint of the line segment connecting both feet of the subject in the next step, and to move the moving body according to the generated moving direction of the moving body The method according to claim 1, wherein the subject is accompanied by a moving object. 前記移動体を移動するように制御するとき、前記移動体を前記対象者よりも先行させて歩行方向を移動させることを特徴とする請求項1記載の移動体の対象者同行方法。   The method of moving a moving object with a subject according to claim 1, wherein when the moving body is controlled to move, the moving body is moved in the walking direction with the moving body preceding the subject. 前記移動体を移動するように制御するとき、前記移動体を前記対象者よりも後行させて歩行方向を移動させることを特徴とする請求項1記載の移動体の対象者同行方法。   2. The method according to claim 1, wherein when the moving body is controlled to move, the moving body is moved behind the target person to move the walking direction. 対象者の移動に従って移動体が移動する移動体用対象者同行装置であって、
前記対象者の足の着地状態である歩行状態を検知する歩行状態検知手段と、
前記対象者の歩行方向を検知する歩行方向検知手段と、
検知された前記足の着地状態と前記方向の情報に基づいて、前記対象者の歩行予想範囲を予想し、予想された歩行予想範囲内に前記対象者の歩行による足の着地状態を検知して、前記移動体が前記対象者の歩行方向に沿って移動するように制御する制御手段とを有することを特徴とする移動体用対象者同行装置。
A moving object subject accompaniment device in which a moving object moves according to the movement of the object person,
Walking state detection means for detecting a walking state that is a landing state of the subject's feet;
Walking direction detecting means for detecting the walking direction of the subject,
Based on the detected landing state of the foot and the information on the direction, the predicted walking range of the target person is predicted, and the landing state of the foot due to the walking of the target person is detected within the predicted walking predicted range. And a moving object target person accompaniment apparatus, characterized by comprising control means for controlling the moving body to move along the walking direction of the target person.
前記対象者の歩行予想範囲は、前記対象者の着地している足の座標を中心とし、かつ前記対象者の歩幅から求められた半径を持つ、前記対象者の前記歩行方向に向けられた扇形の範囲であることを特徴とする請求項11記載の移動体用対象者同行装置。   The expected walking range of the subject is a sector oriented in the walking direction of the subject with the radius determined from the stride of the subject and centered on the coordinates of the foot of the subject landing It is the range of these, The object person accompaniment apparatus for moving bodies of Claim 11 characterized by the above-mentioned. 前記歩行状態検知手段は、前記対象者を判別する対象者判断手段と、前記対象者の両足の位置座標を検知する両足位置検知手段とを有することを特徴とする請求項11記載の移動体用対象者同行装置。   12. The mobile object according to claim 11, wherein the walking state detection means includes a target person determination means for determining the target person and a both foot position detection means for detecting the position coordinates of both feet of the target person. Subject companion device. 前記歩行状態検知手段は、前記対象者の両足の位置座標を検知する両足位置検知手段とを有することを特徴とする請求項11記載の移動体用対象者同行装置。   The moving object accompanying device according to claim 11, wherein the walking state detecting means includes both foot position detecting means for detecting position coordinates of both feet of the subject. 前記両足位置検知手段は、一定時間以上同じ位置座標にある前記対象者の前記足を着地している足と判断する手段と、前記対象者の前記足の位置座標を記憶する記憶部とを有することを特徴とする請求項14記載の移動体用対象者同行装置。   The both foot position detecting means includes means for determining that the foot of the subject is in the same position coordinates for a predetermined time or more, and a storage unit for storing the position coordinates of the foot of the subject. 15. The moving object subject accompanying apparatus according to claim 14. 前記一定時間以上同じ位置座標にある前記対象者の前記足を判断する手段において、前記足が同じ位置座標にある時間を0.1秒より大に設定することを特徴とする請求項15記載の移動体用対象者同行装置。   16. The means for judging the foot of the subject who is at the same position coordinate for the predetermined time or longer sets the time for which the foot is at the same position coordinate to be greater than 0.1 seconds. Mobile object companion device. 前記両足位置検知手段は、地面に着地している前記対象者の前記足を判断する手段と、前記対象者の前記足の位置座標を記憶する記憶部とを有することを特徴とする請求項15記載の移動体用対象者同行装置。   16. The both foot position detecting means includes means for judging the foot of the subject landing on the ground, and a storage unit for storing the position coordinates of the foot of the subject. The target person accompaniment apparatus for moving bodies described. 前記歩行方向検知手段は、既に検知されている前記対象者の前記両足の位置座標から前記対象者の両足を結ぶ線分の中点と、次の一歩における前記対象者の両足を結ぶ線分の中点とを繋げることにより前記移動体の移動方向を生成する手段を有することを特徴とする請求項12記載の移動体用対象者同行装置。   The walking direction detection means includes a midpoint of a line connecting both feet of the subject from the position coordinates of the feet of the subject already detected and a line connecting the feet of the subject in the next step. 13. The moving object subject accompanying apparatus according to claim 12, further comprising means for generating a moving direction of the moving object by connecting a midpoint. 前記制御手段は、前記移動体を前記対象者よりも先行させて、歩行方向を移動させる手段を有することを特徴とする請求項12記載の移動体用対象者同行装置。   13. The mobile object accompanying person apparatus according to claim 12, wherein the control means includes means for moving the walking direction in advance of the object before the object. 前記制御手段は、前記移動体を前記対象者よりも後行させて、歩行方向を移動させる手段を有することを特徴とする請求項12記載の移動体用対象者同行装置。
13. The moving object accompanying person apparatus according to claim 12, wherein the control means includes means for moving the moving body behind the subject and moving the walking direction.
JP2005197239A 2004-07-07 2005-07-06 Mobile object subject accompaniment method and mobile object subject accompaniment apparatus Active JP4440174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005197239A JP4440174B2 (en) 2004-07-07 2005-07-06 Mobile object subject accompaniment method and mobile object subject accompaniment apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004200245 2004-07-07
JP2005197239A JP4440174B2 (en) 2004-07-07 2005-07-06 Mobile object subject accompaniment method and mobile object subject accompaniment apparatus

Publications (2)

Publication Number Publication Date
JP2006048666A true JP2006048666A (en) 2006-02-16
JP4440174B2 JP4440174B2 (en) 2010-03-24

Family

ID=36027093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005197239A Active JP4440174B2 (en) 2004-07-07 2005-07-06 Mobile object subject accompaniment method and mobile object subject accompaniment apparatus

Country Status (1)

Country Link
JP (1) JP4440174B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102156484A (en) * 2011-03-24 2011-08-17 西北工业大学 Self-adaptive control method for diagonal gait of four-footed robot
US8195353B2 (en) 2006-12-18 2012-06-05 Hitachi, Ltd. Guide robot device and guide system
JP2016184337A (en) * 2015-03-26 2016-10-20 株式会社エクォス・リサーチ Mobile body
WO2017115548A1 (en) * 2015-12-28 2017-07-06 株式会社エクォス・リサーチ Moving body
JP2017129909A (en) * 2016-01-18 2017-07-27 株式会社エクォス・リサーチ Moving body
JP2017196414A (en) * 2016-04-26 2017-11-02 トヨタ自動車株式会社 Walk analysis support robot
KR20180089235A (en) * 2017-01-31 2018-08-08 엘지전자 주식회사 Cleaner
JP2019074783A (en) * 2017-10-12 2019-05-16 トヨタ自動車株式会社 Movement supporting system and movement supporting method
JP2019115473A (en) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 Movable carriage, and control program for movable carriage
JP2020046735A (en) * 2018-09-14 2020-03-26 トヨタ車体株式会社 Follow-up truck
CN111208846A (en) * 2018-11-21 2020-05-29 富士施乐株式会社 Autonomous moving apparatus and computer readable medium
CN113607411A (en) * 2021-07-28 2021-11-05 三一重能股份有限公司 Torque limiter testing system and method
WO2022086161A1 (en) * 2020-10-20 2022-04-28 삼성전자주식회사 Robot and control method therefor

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8195353B2 (en) 2006-12-18 2012-06-05 Hitachi, Ltd. Guide robot device and guide system
CN102156484A (en) * 2011-03-24 2011-08-17 西北工业大学 Self-adaptive control method for diagonal gait of four-footed robot
JP2016184337A (en) * 2015-03-26 2016-10-20 株式会社エクォス・リサーチ Mobile body
WO2017115548A1 (en) * 2015-12-28 2017-07-06 株式会社エクォス・リサーチ Moving body
JP2017120495A (en) * 2015-12-28 2017-07-06 株式会社エクォス・リサーチ Moving body
JP2017129909A (en) * 2016-01-18 2017-07-27 株式会社エクォス・リサーチ Moving body
US10383552B2 (en) 2016-04-26 2019-08-20 Toyota Jidosha Kabushiki Kaisha Gait analysis medical assistance robot
JP2017196414A (en) * 2016-04-26 2017-11-02 トヨタ自動車株式会社 Walk analysis support robot
KR102624560B1 (en) * 2017-01-31 2024-01-15 엘지전자 주식회사 Cleaner
KR20180089235A (en) * 2017-01-31 2018-08-08 엘지전자 주식회사 Cleaner
JP2019074783A (en) * 2017-10-12 2019-05-16 トヨタ自動車株式会社 Movement supporting system and movement supporting method
JP7031212B2 (en) 2017-10-12 2022-03-08 トヨタ自動車株式会社 Mobility support system and mobility support method
JP2019115473A (en) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 Movable carriage, and control program for movable carriage
JP2022093417A (en) * 2017-12-27 2022-06-23 トヨタ自動車株式会社 Movable carriage, and control program for movable carriage
JP7070265B2 (en) 2018-09-14 2022-05-18 トヨタ車体株式会社 Follow-up trolley
JP2020046735A (en) * 2018-09-14 2020-03-26 トヨタ車体株式会社 Follow-up truck
JP2020086756A (en) * 2018-11-21 2020-06-04 富士ゼロックス株式会社 Autonomous mobile device and program
CN111208846A (en) * 2018-11-21 2020-05-29 富士施乐株式会社 Autonomous moving apparatus and computer readable medium
WO2022086161A1 (en) * 2020-10-20 2022-04-28 삼성전자주식회사 Robot and control method therefor
CN113607411A (en) * 2021-07-28 2021-11-05 三一重能股份有限公司 Torque limiter testing system and method
CN113607411B (en) * 2021-07-28 2024-03-08 三一重能股份有限公司 Torque limiter test system and method

Also Published As

Publication number Publication date
JP4440174B2 (en) 2010-03-24

Similar Documents

Publication Publication Date Title
JP4440174B2 (en) Mobile object subject accompaniment method and mobile object subject accompaniment apparatus
US7702420B2 (en) Method for making mobile unit accompany objective person
US7778776B2 (en) Obstacle avoidance method and obstacle-avoidable mobile apparatus
EP2957475B1 (en) Semiconductor device and control method
US10889294B2 (en) Assessing U-turn feasibility
JP4276624B2 (en) Robot control apparatus, robot control method, and robot control program
US11524705B2 (en) Vehicle control system
US10807595B2 (en) U-turn assistance based on difficulty in maneuvering
CN108027616B (en) Moving body
JP5120140B2 (en) Collision estimation device and collision estimation program
JP2008021269A (en) Collision risk determining device, collision risk determining method and pedestrian identifying method
JP2011059905A (en) Robot, control program, and recording medium
JP4896482B2 (en) Collision determination device
US20200089252A1 (en) Guide robot and operating method thereof
JP2006134221A (en) Tracking mobile device
EP3193229B1 (en) Mobile body control device and mobile body
JP7078909B2 (en) Vehicle control device and computer program for vehicle control
JP6825715B2 (en) Mobile vehicle
JP2009012521A (en) Traveling support system and traveling support method for vehicle
JP2010172548A (en) Autonomously moving wheelchair
US20220155092A1 (en) Method of navigating a visually impaired user, a navigation system for the same, and a guiding robot
JP2002331849A (en) Driving behavior intention detector
JP2019064301A (en) Vehicle control device and vehicle control method
JP2004209562A (en) Mobile robot
JP2012115314A (en) Walking support device and walking support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4440174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3