JP6402429B2 - Moving body - Google Patents

Moving body Download PDF

Info

Publication number
JP6402429B2
JP6402429B2 JP2015064947A JP2015064947A JP6402429B2 JP 6402429 B2 JP6402429 B2 JP 6402429B2 JP 2015064947 A JP2015064947 A JP 2015064947A JP 2015064947 A JP2015064947 A JP 2015064947A JP 6402429 B2 JP6402429 B2 JP 6402429B2
Authority
JP
Japan
Prior art keywords
foot
user
moving body
movement
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015064947A
Other languages
Japanese (ja)
Other versions
JP2016184337A (en
Inventor
豊 渡邊
豊 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2015064947A priority Critical patent/JP6402429B2/en
Publication of JP2016184337A publication Critical patent/JP2016184337A/en
Application granted granted Critical
Publication of JP6402429B2 publication Critical patent/JP6402429B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、移動体に関し、特に、前進するユーザの邪魔になる状況が抑制された移動体に関する。   The present invention relates to a moving body, and more particularly, to a moving body in which a situation that disturbs a user moving forward is suppressed.

特許文献1には、周囲の障害物を避けつつ、ユーザから離脱しないように移動する移動体が開示されている。また、特許文献2には、ユーザに随伴して自律的に移動する自律移動装置が記載されている。   Patent Document 1 discloses a moving body that moves so as not to leave the user while avoiding surrounding obstacles. Patent Document 2 describes an autonomous mobile device that autonomously moves with a user.

特開2009−151382号公報JP 2009-151382 A 特開2007−334500号公報JP 2007-334500 A

移動体がユーザと共に移動する場合、移動体がユーザから十分に離れていないと、移動体がユーザの歩行に不快感を与える可能性がある。しかし、移動体とユーザとの距離が必要以上に離れた場合には、移動体がユーザにとって頼りない存在になる可能性がある。また、移動体が周囲の人にとって邪魔になる可能性もある。上記特許文献1,2は、移動体や自律移動装置が歩行するユーザの邪魔になる可能性を何ら考慮していない。   When the moving body moves together with the user, the moving body may give an uncomfortable feeling to the user's walking if the moving body is not sufficiently separated from the user. However, when the distance between the moving body and the user is more than necessary, the moving body may become unreliable for the user. In addition, there is a possibility that the moving body becomes an obstacle to the people around. The above Patent Documents 1 and 2 do not take into consideration the possibility that a mobile object or an autonomous mobile device will interfere with a user walking.

本発明は、上述した事情を鑑みてなされたものであり、前進するユーザの邪魔になる状況が抑制された移動体を提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a moving body in which a situation that disturbs a user who moves forward is suppressed.

課題を解決するための手段および発明の効果Means for Solving the Problems and Effects of the Invention

この目的を達成するために、請求項1記載の移動体によれば、ユーザ検知手段により検知されたユーザの状況に基づいて、前進するユーザの足の動きが、予測手段により予測される。移動体の移動目標位置が、ユーザの右足または左足のうち、予測手段により予測される前方に踏み出し中の足の動きに基づいて、当該踏み出し中の足とは反対側の足の前方に向けて移動するよう設定される。移動体は、移動制御手段により、設定された移動目標位置に向けて移動する。これにより、移動体を、前進するユーザに対し、踏み出しを行わない側の足に移動させることができる。よって、移動体がユーザの足の動きの妨げになることを抑制できるので、前進するユーザの邪魔になる状況が抑制される。 In order to achieve this object, according to the moving body of the first aspect, the movement of the user's foot moving forward is predicted by the prediction unit based on the user's situation detected by the user detection unit. Based on the movement of the user's right foot or left foot, which is predicted by the prediction means , the moving target position of the moving body is directed forward of the foot opposite to the stepping foot. Set to move . The moving body moves toward the set movement target position by the movement control means. Thereby, a moving body can be moved to the leg of the side which does not step on with respect to the user who advances. Therefore, since it can suppress that a mobile body obstructs a motion of a user's foot | leg, the condition which disturbs the user who moves forward is suppressed.

請求項記載の移動体によれば、請求項が奏する効果に加え、次の効果を奏する。移動目標位置が、移動体の移動軌跡がユーザに対して前方に膨らむよう設定される。よって、移動体がユーザの前方を横切る場合に、前進するユーザに接触することを抑制できる。 According to the moving body described in claim 2 , in addition to the effect of claim 1 , the following effect is achieved. The movement target position is set so that the movement locus of the moving body swells forward with respect to the user. Therefore, when a mobile body crosses the front of a user, it can suppress contacting the user who advances.

請求項記載の移動体によれば、ユーザ検知手段により検知されたユーザの状況に基づいて、前進するユーザの足の動きが、予測手段により予測される。移動体の移動目標位置が、ユーザの右足または左足のうち一方の足の踏み出し中に、移動体が、踏み出した足とは異なる足の前方から、当該踏み出した足の接地位置の前方に向けて移動し、踏み出した足が接地する付近のタイミングにおいて、当該踏み出した足の接地位置の前方に到達するよう設定される。よって、移動体は、踏み出さず軸となる足の前を横切り、踏み出した足の接地位置の前方に移動されるので、移動体がユーザの前方を横切る状況において、移動体がユーザの足に接触することを抑制できる。 According to the moving body described in claim 3, the movement of the user's foot moving forward is predicted by the prediction unit based on the user's situation detected by the user detection unit. When the movement target position of the moving body is stepping on one of the user's right foot or left foot, the moving body moves from the front of the foot different from the stepped foot toward the front of the grounding position of the stepped foot. moving, at the timing of the nearby stepping foot is grounded, it is by the Hare set to reach the front of the ground position of the stepped foot. Therefore, the moving body traverses the front of the foot as an axis without stepping and is moved to the front of the ground contact position of the stepped foot, so that the moving body contacts the user's foot in a situation where the moving body crosses the front of the user Can be suppressed.

請求項記載の移動体によれば、請求項が奏する効果に加え、次の効果を奏する。ユーザの右足または左足のうち一方の足を基準足とする。周辺状況検知手段により基準足の前方に物体が検知された場合、基準足とは異なる足の踏み出し中に、移動体が、基準足の前方から、基準足とは異なる足の接地位置の前方に向けて移動し、基準足とは異なる足が接地する付近のタイミングにおいて、当該基準足とは異なる足の接地位置の前方に到達するよう、移動目標位置が設定される。よって、基準足の前方に物体が検出された場合には、移動体を、基準足とは異なる足の側へ移動させるので、移動体が物体に接触することを抑制できる。 According to the moving body of claim 4 , in addition to the effect of claim 3 , the following effect is provided. One of the user's right foot and left foot is set as a reference foot. When an object is detected in front of the reference foot by the surrounding state detection means, the moving body moves from the front of the reference foot to the front of the ground contact position different from the reference foot during the stepping of the foot different from the reference foot. The movement target position is set so as to reach the front of the ground contact position of the foot different from the reference foot at a timing near the time when the foot different from the reference foot contacts the ground. Therefore, when an object is detected in front of the reference foot, the moving body is moved to the side of the foot different from the reference foot, so that the moving body can be prevented from contacting the object.

請求項記載の移動体によれば、請求項1からのいずれかが奏する効果に加え、次の効果を奏する。ユーザ検知手段により検知されたユーザの状況に基づいて、ユーザが前進する際に足を動かすリズムおよび歩幅が算出される。そして、算出されたリズムおよび歩幅に基づいて、ユーザの足の動きが予測される。よって、足の動きの予測を比較的簡易な計算によって行うことができる。 According to the moving body of the fifth aspect , in addition to the effect produced by any one of the first to fourth aspects, the following effect is produced. Based on the user's situation detected by the user detection means, the rhythm and stride to move the foot when the user moves forward is calculated. Then, based on the calculated rhythm and stride, the movement of the user's foot is predicted. Therefore, the motion of the foot can be predicted by a relatively simple calculation.

移動体の外観を示す模式図である。It is a schematic diagram which shows the external appearance of a moving body. 移動体の概略的な電気的構成を示すロック図である。It is a block diagram illustrating a schematic electrical configuration of a moving object. 状態検出処理を示すフローチャートである。It is a flowchart which shows a state detection process. 相対位置制御処理を示すフローチャートである。It is a flowchart which shows a relative position control process. ユーザが基準足を踏み出している間、ユーザと移動体との相対距離を広げる移動目標位置の例を示す模式図である。It is a schematic diagram which shows the example of the movement target position which expands the relative distance of a user and a moving body, while a user steps out a reference | standard foot. ユーザの基準足の前方に物体が検出された場合に算出される移動目標位置の一例を示す模式図である。It is a schematic diagram which shows an example of the movement target position calculated when an object is detected ahead of a user's reference | standard foot. 変形例を説明するための模式図である。It is a schematic diagram for demonstrating a modification. 変形例を説明するための模式図である。It is a schematic diagram for demonstrating a modification.

以下、本発明を実施するための形態について添付図面を参照して説明する。図1は、本発明の移動体の一実施形態である移動体100の外観を示す模式図である。移動体100は、移動するユーザ150の前方周囲を自律的に移動することによって、ユーザ150の移動をサポートする装置として機能する。詳細は後述するが、本実施形態の移動体100は、その移動が、移動するユーザ150の邪魔とならないよう構成される。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings. FIG. 1 is a schematic diagram showing an appearance of a moving body 100 that is an embodiment of the moving body of the present invention. The moving body 100 functions as a device that supports the movement of the user 150 by autonomously moving around the front of the moving user 150. Although details will be described later, the moving body 100 of the present embodiment is configured such that the movement does not interfere with the moving user 150.

なお、移動体100の移動範囲である「ユーザ150の前方周囲」は、例えば、ユーザ150の前方であり、かつ、ユーザ150を中心とする180度の範囲である。あるいは、ユーザの視界の範囲内としてもよい。また、移動体100とユーザ150との間の距離は、他の物体や他者が入らないよう確保すべき距離(例えば、40cm程度)以上、かつ、ユーザ150と共に移動するという点で自然な距離(例えば、70cm程度)を越えないように設定された距離以下の範囲内とされる。   Note that “the front periphery of the user 150”, which is the movement range of the moving body 100, is, for example, a range of 180 degrees in front of the user 150 and centering on the user 150. Or it is good also in the range of a user's visual field. In addition, the distance between the moving body 100 and the user 150 is not less than a distance (for example, about 40 cm) that should be secured so that other objects and others do not enter, and is a natural distance in that it moves with the user 150. (For example, about 70 cm), the distance is set to be within a range set not to exceed.

図1に示すように、移動体100は、本体部101と、車輪102と、表示部103とを有する。本体部101は、略円柱状に構成される。本体部101の形状は、略円柱状に限られるものではなく、種々の形状を採用できる。本体部101の周辺には、ユーザ150または移動体100の周辺を撮像するための複数の撮像装置(図示せず)が設けられている。   As shown in FIG. 1, the moving body 100 includes a main body 101, wheels 102, and a display unit 103. The main body 101 is formed in a substantially cylindrical shape. The shape of the main body 101 is not limited to a substantially cylindrical shape, and various shapes can be adopted. A plurality of imaging devices (not shown) for imaging the periphery of the user 150 or the moving body 100 are provided around the main body 101.

車輪102は、全方位への移動が可能な全方位車輪として構成される。よって、移動体100は、全方位への移動をスムーズに行うことができる。本実施形態では、3つの車輪102が設けられているものとするが、車輪102の数は3つに限らず、適宜の数を採用できる。   The wheel 102 is configured as an omnidirectional wheel that can move in all directions. Therefore, the moving body 100 can smoothly move in all directions. In the present embodiment, three wheels 102 are provided, but the number of wheels 102 is not limited to three, and an appropriate number can be adopted.

表示部103は、液晶表示装置などのディスプレイを有し、ディスプレイへの表示によって情報をユーザ150に伝達する。なお、図1に示す例において、表示部103のディスプレイは、ユーザ150に対向する面に設けられている。表示部103のディスプレイは、タッチパネルとして構成され、ユーザ150からの指示を移動体100に入力することができる。   The display unit 103 includes a display such as a liquid crystal display device, and transmits information to the user 150 by display on the display. In the example illustrated in FIG. 1, the display of the display unit 103 is provided on a surface facing the user 150. The display of the display unit 103 is configured as a touch panel, and can input an instruction from the user 150 to the moving body 100.

図2は、移動体100の概略的な電気的構成を示すロック図である。移動体100は、センシング部10と、制御部20と、駆動部30と、ヒューマン・マシン・インタフェイス(以下「HMI」と称す)部40とを有する。 Figure 2 is a block diagram illustrating a schematic electrical configuration of the mobile unit 100. The moving body 100 includes a sensing unit 10, a control unit 20, a driving unit 30, and a human machine interface (hereinafter referred to as “HMI”) unit 40.

センシング部10は、ユーザ150の状態(以下「ユーザ状態」と称す)や、移動体100およびユーザの周辺の状態(以下「周辺状態」と称す)を検出するものである。センシング部10のうち、ユーザ状態を検出するものは、本発明におけるユーザ検知手段の一例である。センシング部10のうち、周辺状態を検出するものは、本発明における周辺状態検知手段の一例である。   The sensing unit 10 detects the state of the user 150 (hereinafter referred to as “user state”) and the state around the mobile object 100 and the user (hereinafter referred to as “peripheral state”). The sensing unit 10 that detects the user state is an example of a user detection unit in the present invention. The sensing unit 10 that detects the peripheral state is an example of the peripheral state detection means in the present invention.

センシング部10は、例えば、本体部101の周囲に設けられた複数の撮像装置、ミリ波やレーザなどの各種センサ装置などから構成される。なお、撮像装置としては、例えば、CCD(Charge Coupled Device)カメラや、CMOS(Complementary Metal Oxide Semiconductor )カメラなどのカメラ装置を採用できる。撮像装置は、レンジファインダを有するものを採用してもよい。   The sensing unit 10 includes, for example, a plurality of imaging devices provided around the main body unit 101, various sensor devices such as millimeter waves and lasers, and the like. As the imaging device, for example, a camera device such as a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal Oxide Semiconductor) camera can be employed. An image pickup apparatus having a range finder may be employed.

センシング部10は、センシング部10が検出した結果を制御部20に出力する。より詳細には、センシング部10は、ユーザ150を対象とする撮像画像およびレーダによる検出結果などを、ユーザ状態の検出結果として、制御部20に出力する。一方、センシング部10は、移動体100およびユーザ150の周辺を対象とする撮像画像およびレーダによる検出結果などを、周辺状態の検出結果として、制御部20に出力する。   The sensing unit 10 outputs the result detected by the sensing unit 10 to the control unit 20. More specifically, the sensing unit 10 outputs a captured image targeted for the user 150, a detection result by the radar, and the like to the control unit 20 as a detection result of the user state. On the other hand, the sensing unit 10 outputs a captured image targeting the periphery of the moving body 100 and the user 150, a detection result by the radar, and the like to the control unit 20 as a detection result of the peripheral state.

制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などから構成され、移動体100の全体を制御する制御装置として機能する。なお、図3および図4を参照して後述する処理を実現するためのプログラムは、制御部20のROMに記憶され、制御部20のCPUにより実行される。制御部20は、センシング部10からの入力に応じた制御信号を生成し、当該制御信号を駆動部30またはHMI部40へ出力する。   The control unit 20 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and functions as a control device that controls the entire mobile unit 100. A program for realizing processing described below with reference to FIGS. 3 and 4 is stored in the ROM of the control unit 20 and executed by the CPU of the control unit 20. The control unit 20 generates a control signal corresponding to the input from the sensing unit 10 and outputs the control signal to the drive unit 30 or the HMI unit 40.

駆動部30は、車輪102、および、車輪102の駆動源となるモータなどから構成される。駆動部30には、制御部20から制御信号が入力される。制御信号が駆動部30に入力されると、入力された信号に基づきモータが回転し、当該モータの回転が動力となって車輪102が駆動する。   The drive unit 30 includes a wheel 102 and a motor serving as a drive source for the wheel 102. A control signal is input to the drive unit 30 from the control unit 20. When the control signal is input to the drive unit 30, the motor rotates based on the input signal, and the wheel 102 is driven by the rotation of the motor as power.

HMI部40は、ユーザ150に情報を出力したり、ユーザ150が指示を入力するためのインタフェイスである。表示部103のディスプレイは、HMI部40の一例である。なお、音声を出力するスピーカや、音声を入力するマイクをHMI部40として設ける構成としてもよい。HMI部40は、制御部20から入力された制御信号に応じて、情報を出力する。一方、ユーザ150からHMI部40に指示が入力された場合、HMI部40は、当該入力に応じた制御信号を制御部20に出力する。   The HMI unit 40 is an interface for outputting information to the user 150 and allowing the user 150 to input an instruction. The display of the display unit 103 is an example of the HMI unit 40. Note that a speaker that outputs sound and a microphone that inputs sound may be provided as the HMI unit 40. The HMI unit 40 outputs information according to the control signal input from the control unit 20. On the other hand, when an instruction is input from the user 150 to the HMI unit 40, the HMI unit 40 outputs a control signal corresponding to the input to the control unit 20.

図3は、上記構成を有する移動体100の制御部20のCPUが実行する状態検出処理を示すフローチャートである。本処理は、所定時間毎(例えば、0.1秒毎)に定期的に実行される。本処理は、ユーザおよび周辺の状態を検出する処理であり、センシング部0からの入力に基づいて、移動体座標系(すなわち、移動体100を基準とする座標系)で表される各パラメータを、ユーザ座標系(すなわち、ユーザ150を基準とする座標系)に変換する処理である。 FIG. 3 is a flowchart illustrating a state detection process executed by the CPU of the control unit 20 of the moving body 100 having the above-described configuration. This process is periodically executed every predetermined time (for example, every 0.1 second). This process is a process for detecting the state of the user and the surroundings, and each parameter represented by a moving body coordinate system (that is, a coordinate system based on the moving body 100) based on an input from the sensing unit 10. Is converted into a user coordinate system (that is, a coordinate system based on the user 150).

制御部20のCPU(以下、単に「CPU」と称す)は、センシング部0からの入力に基づいて、移動体座標系におけるパラメータを取得する(S101)。S101にて取得されるパラメータは、ユーザ状態を示すパラメータと、周辺状態を示すパラメータとに大別される。 The CPU of the control unit 20 (hereinafter simply referred to as “CPU”) acquires parameters in the moving body coordinate system based on the input from the sensing unit 10 (S101). The parameters acquired in S101 are roughly classified into parameters indicating the user state and parameters indicating the peripheral state.

ユーザ状態を示すパラメータは、例えば、移動体100に対するユーザ150の相対位置(x0,y0)、移動体100に対するユーザ150の相対速度v0、移動体100に対するユーザ150の相対移動方向θ0、移動体100に対するユーザ150の体の向きθBなどである。   The parameters indicating the user state include, for example, the relative position (x0, y0) of the user 150 with respect to the moving body 100, the relative speed v0 of the user 150 with respect to the moving body 100, the relative moving direction θ0 of the user 150 with respect to the moving body 100, and the moving body 100. The orientation of the body of the user 150 with respect to?

一方、周辺状態を示すパラメータは、例えば、移動体100に対する他者または物体の相対位置(xi,yi)、移動体100に対する他者または物体の相対速度vi、移動体100に対する他者または物体の相対移動方向θiなどである。なお、変数iは、1以上の整数であり、周辺に存在する他者または物体に対し個々に割り当てられる。つまり、変数iは、周辺に存在する他者または物体を個々に特定するための値である。   On the other hand, the parameters indicating the peripheral state include, for example, the relative position (xi, yi) of the other person or the object with respect to the moving body 100, the relative speed vi of the other person or the object with respect to the moving body 100, the other person or the object with respect to the moving body 100. For example, the relative movement direction θi. The variable i is an integer of 1 or more, and is individually assigned to another person or object existing in the vicinity. That is, the variable i is a value for individually specifying other persons or objects existing in the vicinity.

ユーザ150、あるいは周辺に存在する他者または物体の相対位置、ユーザ150の体の向き、および、ユーザ150の右足または左足の位置は、例えば、本体部101の周囲に設けられた複数の撮像装置(例えば、カメラ)により撮像された各画像を画像処理に供し、エッジ抽出やパターン認識を行うことにより取得できる。   The relative position of the user 150 or another person or object existing in the periphery, the body orientation of the user 150, and the position of the right or left foot of the user 150 are, for example, a plurality of imaging devices provided around the main body 101. Each image picked up by (for example, a camera) is subjected to image processing, and can be acquired by performing edge extraction and pattern recognition.

なお、ユーザであるか否かの認識は、例えば、予めユーザの顔画像を記憶させておき、その顔画像と撮像画像との比較に基づいて行う。また、周辺に存在する物体が、移動する他者であるか、静止している物体であるかの区別もまた、撮像画像に基づいて行う。一方、ユーザ150、あるいは周辺に存在する他者または物体の相対速度、相対移動方向は、例えば、今回に取得した各画像および前回に取得した各画像に基づいて取得する。   The recognition of whether or not the user is a user is performed based on, for example, storing a user's face image in advance and comparing the face image and the captured image. In addition, whether an object existing in the vicinity is a moving other person or a stationary object is also determined based on the captured image. On the other hand, the relative speed and the relative movement direction of the user 150 or another person or object existing in the vicinity are acquired based on, for example, each image acquired this time and each image acquired last time.

CPUは、S101にて取得した、移動体座標系における各パラメータを、ユーザ座標系に変換し(S102)、本処理を終了する。S102の処理の結果、移動体100を基準とする相対的なパラメータが、ユーザ150を基準とする相対的なパラメータに変換される。   The CPU converts each parameter in the moving object coordinate system acquired in S101 into the user coordinate system (S102), and ends this process. As a result of the process of S102, the relative parameter based on the moving body 100 is converted into the relative parameter based on the user 150.

図4は、CPUが実行する相対位置制御処理を示すフローチャートである。なお、CPUは、本処理を、上記状態検出処理(図3)と並列して実行する。本処理は、所定時間毎(例えば、0.1秒毎)に定期的に実行される。本処理は、ユーザ150の足の動きに応じて、ユーザ150との相対位置を調整しつつ移動体100を移動させる処理である。   FIG. 4 is a flowchart showing a relative position control process executed by the CPU. The CPU executes this process in parallel with the state detection process (FIG. 3). This process is periodically executed every predetermined time (for example, every 0.1 second). This process is a process of moving the moving body 100 while adjusting the relative position with the user 150 in accordance with the movement of the user's 150 foot.

CPUは、ユーザ150が歩行中であるかを判断する(S201)。具体的に、CPUは、まず、状態検出処理により取得された、ユーザ150に対する移動体100の速度と、移動体100の移動速度とから、ユーザ150の移動速度を算出する。次に、CPUは、算出されたユーザ150の移動速度が、人間の歩行時における速度範囲内の値であるかを判断する。   The CPU determines whether the user 150 is walking (S201). Specifically, the CPU first calculates the moving speed of the user 150 from the speed of the moving body 100 with respect to the user 150 and the moving speed of the moving body 100 acquired by the state detection process. Next, the CPU determines whether or not the calculated moving speed of the user 150 is a value within a speed range when a human is walking.

そして、CPUは、ユーザ150の移動速度が、人間の歩行時における速度範囲であると判断した場合に、ユーザ150が歩行中であると判断する。なお、「人間の歩行時における速度範囲」は、例えば、0[km/h]より大きく、かつ、8[km/h]以下である。ユーザ150に応じて歩行速度にばらつきがあるので、ユーザ150に設定させた範囲を利用してもよい。   Then, the CPU determines that the user 150 is walking when it is determined that the moving speed of the user 150 is within a speed range during human walking. The “speed range during human walking” is, for example, greater than 0 [km / h] and not greater than 8 [km / h]. Since the walking speed varies depending on the user 150, a range set by the user 150 may be used.

CPUは、ユーザ150が歩行中でないと判断した場合(S201:No)、本処理を終了する。一方、CPUは、ユーザ150が歩行中であると判断した場合(S201:Yes)、ユーザ150の歩行状態を検知する(S202)。具体的に、CPUは、センシング部10のカメラによる撮像画像を解析し、ユーザ150の歩行状態、すなわち、ユーザ150の右足および左足の各位置を検知する。   When it is determined that the user 150 is not walking (S201: No), the CPU ends this process. On the other hand, when the CPU determines that the user 150 is walking (S201: Yes), the CPU detects the walking state of the user 150 (S202). Specifically, the CPU analyzes an image captured by the camera of the sensing unit 10 and detects the walking state of the user 150, that is, the positions of the right foot and the left foot of the user 150.

あるいは、撮像画像に基づく直接的な足の検知でなく、間接的に足を検知してもよい。例えば、移動体100に対するユーザ150の体の向きθBの時間変化に応じて、ユーザ150の体の揺れ具合またはねじれ具合を検出し、検出された揺れ具合やねじれ具合に基づいて、ユーザ150の右足および左足の各位置を検知してもよい。   Alternatively, instead of directly detecting the foot based on the captured image, the foot may be detected indirectly. For example, according to the time change of the body orientation θB of the user 150 with respect to the moving body 100, the degree of shaking or twisting of the user 150's body is detected, and the right foot of the user 150 is determined based on the detected degree of shaking or twisting. Each position of the left foot may be detected.

CPUは、ユーザ150の歩行リズムおよび歩幅を取得する(S203)。歩行リズムは、例えば、単位時間あたりの歩数(すなわち、歩行テンポ)である。S203において、例えば、CPUは、S202により検知されたユーザ150の足の位置のログを取り、そのログに基づいて、歩行リズムおよび歩幅を算出する。   The CPU acquires the walking rhythm and stride of the user 150 (S203). The walking rhythm is, for example, the number of steps per unit time (ie, walking tempo). In S203, for example, the CPU takes a log of the position of the foot of the user 150 detected in S202, and calculates a walking rhythm and a stride based on the log.

あるいは、移動体00にフラッシュメモリなどの記憶部を設け、CPUは、当該記憶部に予め準備されているユーザ150の歩行リズムおよび歩幅を読み出してもよい。なお、記憶部に記憶されている歩行リズムおよび歩幅を利用する場合、S202にて検出されるユーザ150の歩行状態に応じて補正を行い、補正後の値を用いる構成としてもよい。 Alternatively, the mobile unit 100 may be provided with a storage unit such as a flash memory, and the CPU may read the walking rhythm and stride of the user 150 prepared in advance in the storage unit. In addition, when using the walking rhythm and stride memorize | stored in a memory | storage part, it is good also as a structure which correct | amends according to the walking state of the user 150 detected in S202, and uses the value after correction | amendment.

CPUは、S202にて検知されたユーザ150の足の位置と、S203にて取得された歩行リズムおよび歩幅とに基づいて、ユーザ150の足の動きを予測する(S204)。つまり、CPUは、足の動きとして、例えば、踏み出す側の足が、どの程度の速さでどのような軌跡で動き、何時どこに接地するかなどを予測する。S204の処理が、本発明における予測手段の一例である。   The CPU predicts the movement of the foot of the user 150 based on the position of the foot of the user 150 detected in S202 and the walking rhythm and stride acquired in S203 (S204). In other words, the CPU predicts, for example, how fast the foot on the stepping side moves with what trajectory, and when and where the foot touches. The process of S204 is an example of the prediction means in the present invention.

CPUは、予測された足の動きに基づいて、移動体100の、ユーザ150との目標相対位置を算出する(S205)。つまり、CPUは、移動体100の移動目標位置を算出する。詳細は後述するが、本実施形態では、通常時において、ユーザ150が基準足を踏み出している間、ユーザ150と移動体100との相対距離が広がるように、当該基準足の前方に設けられた第1領域内で、移動体100の移動目標位置が算出される。なお、S205にて算出される移動目標位置は、ユーザ150と移動体100との相対距離を、ユーザ150が心理的に安心できる程度にわずかに広げる位置である。   The CPU calculates a target relative position of the moving body 100 with respect to the user 150 based on the predicted movement of the foot (S205). That is, the CPU calculates the movement target position of the moving body 100. Although details will be described later, in the present embodiment, the normal foot is provided in front of the reference foot so that the relative distance between the user 150 and the moving body 100 is widened while the user 150 is stepping on the reference foot. Within the first region, the movement target position of the moving body 100 is calculated. Note that the movement target position calculated in S205 is a position where the relative distance between the user 150 and the moving body 100 is slightly widened to the extent that the user 150 can be psychologically relieved.

「基準足」は、右足または左足のうち、ユーザ150により設定された側の足である。ユーザ150は、自身が使い易い側、例えば、利き手側を基準足に設定できる。一方、基準足の前方に物体が検知された場合には、移動体100が、第1領域から、基準足とは異なる足の前方の第2領域に向けて移動するよう、移動目標位置が設定される。S205の処理が、本発明における目標設定手段の一例である。   The “reference foot” is a foot on the side set by the user 150 out of the right foot or the left foot. The user 150 can set the side that is easy to use, for example, the dominant hand side, as the reference foot. On the other hand, when an object is detected in front of the reference foot, the movement target position is set so that the moving body 100 moves from the first region toward the second region in front of the foot different from the reference foot. Is done. The process of S205 is an example of a target setting unit in the present invention.

CPUは、移動体100をS205にて設定された移動目標位置へ向けて移動させることにより、移動体100とユーザ150との相対位置を調整する(S206)。つまり、CPUは、移動体100がS205にて設定された移動目標位置に向けて移動するよう、駆動部30に制御信号を出力する。S206の処理が、本発明における移動制御手段の一例である。CPUは、S206の処理後、処理をS201に移行する。   The CPU adjusts the relative position between the moving body 100 and the user 150 by moving the moving body 100 toward the movement target position set in S205 (S206). That is, the CPU outputs a control signal to the drive unit 30 so that the moving body 100 moves toward the movement target position set in S205. The process of S206 is an example of the movement control means in the present invention. After the process of S206, the CPU shifts the process to S201.

図5および図6を参照して、上述した相対位置制御処理のS205にて算出される移動目標位置について説明する。図5(a)は、ユーザ150が基準足を踏み出している間、ユーザ150と移動体100との相対距離を広げる移動目標位置の一例を示す模式図である。   With reference to FIGS. 5 and 6, the movement target position calculated in S205 of the relative position control process described above will be described. FIG. 5A is a schematic diagram illustrating an example of a movement target position that increases the relative distance between the user 150 and the moving body 100 while the user 150 steps out the reference foot.

ユーザ150の周囲には、個の領域120が設けられる。「個の領域」は、所謂、心理的なパーソナルスペースであり、相手の入を好ましく思わない領域であると同時に、相手も侵入したくないと感じる領域である。個の領域120の内側には、排除領域121が設けられる。排除領域121は、移動体100などの物体や他者が入らないよう確保すべき領域である。なお、本実施形態では、個の領域120および排除領域121を楕円としたが、円などの適宜の形状を採用できる。 An area 120 is provided around the user 150. "Pieces of the region", so-called, is a psychological personal space, and at the same time is an area that I do not think preferably the intrusion of the other party, which is a region feel that the other party does not even want to invade. An exclusion area 121 is provided inside each area 120. The exclusion area 121 is an area that should be secured so that objects such as the moving body 100 and others do not enter. In the present embodiment, the individual areas 120 and the exclusion areas 121 are oval, but an appropriate shape such as a circle may be employed.

移動体100は、ユーザ150の前方周囲、より詳細には、個の領域120の内側、かつ、排除領域121の外側に設けられる領域130内で移動するよう制御される。領域130は、ユーザ150の前方であり、かつ、ユーザ150を中心とする180度の範囲に設けられる。領域130における前方の境界130aは、ユーザ150に対し、ユーザ150と共に移動するという点で自然な距離に設定される。 The moving body 100 has a front around the user 150, and more particularly, the inner pieces of region 120, and is controlled to move within the region 130 provided outside of the exclusion area 12 1. The region 130 is provided in a range of 180 degrees in front of the user 150 and centering on the user 150. The front boundary 130a in the region 130 is set to a natural distance in that the user 150 moves with the user 150.

なお、図5(a)の例では、領域130を、その境界130aが個の領域120の内側となるように設けたが、境界130aが個の領域120を超えることがなければ、領域130を適宜の大きさで設定できる。また、領域130の範囲は、ユーザ150を中心とする180度の範囲に限らず、例えば、ユーザ150の視界の範囲内としてもよい。   In the example of FIG. 5A, the region 130 is provided so that the boundary 130a is inside the individual regions 120. However, if the boundary 130a does not exceed the individual regions 120, the region 130 is displayed. An appropriate size can be set. Further, the range of the region 130 is not limited to the range of 180 degrees centered on the user 150, and may be within the range of the field of view of the user 150, for example.

領域130は、ユーザ150に対し左右2つの領域130L,130Rに分割される。本実施形態では、図5(a)に示すように、領域130L,130Rは、領域130が左右均等に2分割された各領域とするが、領域130L,130Rを異なる大きさとしてもよい。また、領域130Lと領域130Rとの間が不連続であってもよい。   The area 130 is divided into two areas 130L and 130R on the left and right sides for the user 150. In the present embodiment, as shown in FIG. 5A, the regions 130L and 130R are the regions obtained by equally dividing the region 130 into left and right, but the regions 130L and 130R may have different sizes. Further, the region 130L and the region 130R may be discontinuous.

本実施形態では、移動体100は、通常時において、ユーザ150の右足150Rおよび左足150Lのうち、ユーザ150が基準足として設定した側の領域130Lまたは領域130Rの範囲内で、基準足の動きに応じて移動するよう構成される。例えば、基準足が右足150Rに設定された場合、移動体100は、右足150Rの動きに応じて、領域130Rの範囲内で移動する。   In the present embodiment, the moving body 100 moves the reference foot within the range of the region 130L or the region 130R on the side set by the user 150 as the reference foot among the right foot 150R and the left foot 150L of the user 150 in a normal state. Configured to move accordingly. For example, when the reference foot is set to the right foot 150R, the moving body 100 moves within the region 130R according to the movement of the right foot 150R.

これにより、移動体100を、ユーザ150が設定した基準足の側で移動させることができる。例えば、ユーザ150が、利き手側を基準足に設定した場合には、移動体100を利き手の側で移動させることができる。この場合、ユーザ150は、利き手側に移動体100が位置することで安心感を得ることができるとともに、利き手で移動体100を操作できる。また、移動体100がユーザ150の前を横切る状況を抑制できるので、ユーザ150が前を横切る移動体100に対し煩わしさを感じたり、前進するユーザ150と接触することなどを抑制できる。   Thereby, the moving body 100 can be moved on the side of the reference foot set by the user 150. For example, when the user 150 sets the dominant hand side as the reference foot, the moving body 100 can be moved on the dominant hand side. In this case, the user 150 can obtain a sense of security by positioning the moving body 100 on the dominant hand side, and can operate the moving body 100 with the dominant hand. Moreover, since the situation where the moving body 100 crosses in front of the user 150 can be suppressed, it can be suppressed that the user 150 feels bothered by the moving body 100 crossing the front or contacts the user 150 moving forward.

例えば、図5(a)に示すように、基準足である右足150Rが踏み出されて前方に移動しているときに、移動体100とユーザ150との相対距離が、ユーザ150の前方、すなわち、矢印Aの方向に広くなるよう、移動体100の移動目標位置101が、領域130の範囲内で算出される。   For example, as shown in FIG. 5A, when the right foot 150R that is the reference foot is stepped and moving forward, the relative distance between the moving body 100 and the user 150 is the front of the user 150, that is, The movement target position 101 of the moving body 100 is calculated within the range of the area 130 so as to become wider in the direction of the arrow A.

これにより、右足150Rが踏み出されて前方に移動する際には、移動体100は、ユーザ150の前方に対する相対距離が、右足150Rを踏み出していないとき、例えば、右足150Rが接地しているときに比べて広くなる。よって、踏み出しによって前方に移動する右足150R、すなわち、踏み出しによって前方に移動する基準足が移動体100に接触することを抑制できる。そのため、移動体100が、前進するユーザ150の邪魔になる状況を抑制できる。   Thereby, when the right foot 150R is stepped and moves forward, the moving body 100 has a relative distance to the front of the user 150 when the right foot 150R is not stepped, for example, when the right foot 150R is grounded. Compared to wider. Therefore, it is possible to prevent the right foot 150R that moves forward by stepping, that is, the reference foot that moves forward by stepping, from contacting the moving body 100. Therefore, it is possible to suppress a situation in which the moving body 100 interferes with the user 150 moving forward.

一方、図5(b)は、ユーザ150が基準足を踏み出している間、ユーザ150と移動体100との相対距離を広げる移動目標位置の別例を示す模式図である。図5(b)に示す例では、基準足である右足150Rが踏み出されて前方に移動しているときに、移動体100とユーザ150との相対距離が、ユーザ150の右方、すなわち、ユーザ150の左右方向のうち右足150Rより外側に向かう方向(矢印Bの方向)に広くなるよう、移動体100の移動目標位置101が領域130の範囲内で算出される。なお、基準足が左足150Lである場合には、移動体100とユーザ150との相対距離が、ユーザ150の左方に広くなるよう、移動目標位置101が算出される。   On the other hand, FIG. 5B is a schematic diagram illustrating another example of the movement target position that increases the relative distance between the user 150 and the moving body 100 while the user 150 steps on the reference foot. In the example shown in FIG. 5B, when the right foot 150R as the reference foot is stepped and moving forward, the relative distance between the moving body 100 and the user 150 is the right side of the user 150, that is, the user. The movement target position 101 of the moving body 100 is calculated within the range of the region 130 so as to become wider in the direction toward the outside of the right foot 150 </ b> R (the direction of arrow B) among the 150 left and right directions. When the reference foot is the left foot 150L, the movement target position 101 is calculated so that the relative distance between the moving body 100 and the user 150 becomes wider to the left of the user 150.

これにより、右足150Rが踏み出されて前方に移動する際には、移動体100は、ユーザ150の右方に対する相対距離が、右足150Rが踏み出されていない、例えば、右足150Rが接地しているときに比べて広くなる。よって、踏み出しによって前方に移動する右足150R、すなわち、踏み出しによって前方に移動する基準足が移動体100に接触することを抑制できる。   Thereby, when the right foot 150R is stepped and moves forward, the moving body 100 has a relative distance to the right of the user 150 when the right foot 150R is not stepped, for example, when the right foot 150R is grounded. Wider than Therefore, it is possible to prevent the right foot 150R that moves forward by stepping, that is, the reference foot that moves forward by stepping, from contacting the moving body 100.

なお、上記説明では、基準足が踏み出されて前方に移動しているときに、移動体100とユーザ150との相対距離が上述の通りに広くなるよう、移動目標位置101を算出することを例示した。これに代えて、踏み出された基準足が前方に加速しているときに限って、移動体100とユーザ150との相対距離が広くなるような移動目標位置101を算出する構成であってもよい。   In the above description, when the reference foot is stepped and moving forward, the movement target position 101 is calculated so that the relative distance between the moving body 100 and the user 150 becomes wider as described above. did. Instead, the moving target position 101 may be calculated so that the relative distance between the moving body 100 and the user 150 is wide only when the stepped reference foot is accelerating forward. .

また、移動体100とユーザ150との相対距離が、前方について広く、かつ、ユーザ150の左右方向のうち右足150Rより外側に向かう方向について広くなるよう、移動目標位置101を算出する構成であってもよい。例えば、基準足が右足150Rである場合、移動体100とユーザ150との相対距離が右前方に広くなるよう、移動目標位置101を算出する構成であってもよい。   In addition, the moving target position 101 is calculated so that the relative distance between the moving body 100 and the user 150 is wide in the forward direction and wide in the direction toward the outside of the right foot 150R in the left-right direction of the user 150. Also good. For example, when the reference foot is the right foot 150R, the movement target position 101 may be calculated so that the relative distance between the moving body 100 and the user 150 is widened to the front right.

図6は、ユーザ150の基準足の前方に物体300が検出された場合に算出される移動目標位置の一例を示す模式図である。図6において、基準足は右足150Rであるとする。右足150Rの前方に物体300が検知された場合、移動体100が、領域130Rから、基準足とは異なる足(すなわち、左足150L)の前方の領域130Lに向けて移動するよう、移動目標位置101が算出される。これにより、領域130R内に位置する移動体100が、領域130L内に移動するので、移動体100が、右足150Rの前方に存在する物体300と接触する可能性が抑制される。なお、前方に検出されたものが物体300である場合に限らず、人間(つまり、他者)が検出された場合も同様である。   FIG. 6 is a schematic diagram illustrating an example of the movement target position calculated when the object 300 is detected in front of the reference foot of the user 150. In FIG. 6, it is assumed that the reference foot is the right foot 150R. When the object 300 is detected in front of the right foot 150R, the moving target position 101 is set so that the moving body 100 moves from the region 130R toward the region 130L in front of the foot different from the reference foot (that is, the left foot 150L). Is calculated. Thereby, since the moving body 100 located in the area 130R moves into the area 130L, the possibility that the moving body 100 contacts the object 300 existing in front of the right foot 150R is suppressed. Note that the same applies to a case where a person (that is, another person) is detected, not only when the object 300 is detected in front.

本実施形態では、図6に示すように、移動体100を領域130Rから領域130Lに移動させる際に、その移動軌跡が、ユーザ150に対して前方に膨らむ軌跡Eとなるような移動目標位置101が順次算出される。このように、移動体100が、右足10Rの前方の領域130Rから領域130Lへと、ユーザ150の前を横切る場合において、右足10Rが移動体100に接触することを抑制できる。 In the present embodiment, as shown in FIG. 6, when moving the moving body 100 from the region 130 </ b> R to the region 130 </ b> L, the movement target position 101 is such that the movement locus becomes a locus E that bulges forward with respect to the user 150. Are sequentially calculated. Thus, the moving body 100, and the front region 130R of the right foot 1 5 0R to areas 130L, when crossing the previous user 150, can be suppressed right foot 1 5 0R contacts the moving body 100.

図6に示す例において、移動体100が領域130L内の位置100aに移動した後は、基準足を一時的に左足150Lとし、左足150Lの踏み出しに応じて、上述した右足150Rの場合と同様に、移動体100とユーザ150との間の相対距離が制御される。そして、ユーザ150が物体300の横を通り過ぎて、物体300との接触の可能性がなくなった場合に、移動体100を、領域130Rから領域130Lへ移動させた場合と同様に、領域130Lから領域130Rへ移動させる。そして、移動体100が領域130Rに移動したら、基準足を元の右足150Rに戻す。   In the example shown in FIG. 6, after the moving body 100 moves to the position 100a in the region 130L, the reference foot is temporarily set to the left foot 150L, and in accordance with the stepping of the left foot 150L, as in the case of the right foot 150R described above. The relative distance between the moving body 100 and the user 150 is controlled. Then, when the user 150 passes by the side of the object 300 and there is no possibility of contact with the object 300, the moving body 100 is moved from the region 130L to the region 130L in the same manner as when the moving body 100 is moved from the region 130R to the region 130L. Move to 130R. When the moving body 100 moves to the region 130R, the reference foot is returned to the original right foot 150R.

あるいは、移動体100が領域130L内の位置100aに移動した後、左足150Lの前方に新たな物体が検出されるまでは、基準足を左足150Lとして、基準足が右足150Rである場合と同様に移動体100の移動を制御する構成としてもよい。かかる場合、左足150Lの前方に新たな物体が検出された場合、移動体100を、領域130Rから領域130Lへ移動させた場合と同様に、領域130Lから領域130Rへ移動させる。そして、移動体100が領域130Rに移動したら、基準足を元の右足150Rに戻す。   Alternatively, after the moving body 100 moves to the position 100a in the area 130L, until the new object is detected in front of the left foot 150L, the reference foot is the left foot 150L and the reference foot is the right foot 150R. It is good also as a structure which controls the movement of the mobile body 100. FIG. In such a case, when a new object is detected in front of the left foot 150L, the moving body 100 is moved from the region 130L to the region 130R in the same manner as when the moving body 100 is moved from the region 130R to the region 130L. When the moving body 100 moves to the region 130R, the reference foot is returned to the original right foot 150R.

本実施形態の移動体100によれば、前進するユーザ150の状態がセンシング部10で検出され、センシング部10からの入力に基づきユーザ150の足の動きが予測される。予測された足の動きに基づいて、移動体100の移動目標位置が算出され、移動体100を、算出された移動目標位置へと移動させる。これにより、移動体100を、前進するユーザに対し、当該ユーザの足の動きに応じて順次移動させることができる。   According to the moving body 100 of the present embodiment, the state of the user 150 moving forward is detected by the sensing unit 10, and the movement of the user 150's foot is predicted based on the input from the sensing unit 10. Based on the predicted movement of the foot, the movement target position of the moving body 100 is calculated, and the moving body 100 is moved to the calculated movement target position. Thereby, the moving body 100 can be sequentially moved with respect to the user who moves forward according to the movement of the user's foot.

特に、踏み出された足が前方に移動する際に、移動体100とユーザ150との相対距離が、ユーザ150の前方、または、ユーザ150の左右方向のうち踏み出された足より外側に向かう方向への相対距離が広くなるような移動目標位置101が算出されるので、踏み出しによって前方に移動する足が移動体100に接触することを抑制できる。これにより、移動体100が、前進するユーザ150の邪魔になる状況が抑制される。   In particular, when the stepped foot moves forward, the relative distance between the moving body 100 and the user 150 is such that the relative distance between the moving body 100 and the user 150 is outward from the stepped foot in the left or right direction of the user 150. Since the movement target position 101 is calculated such that the relative distance becomes larger, it is possible to prevent the foot moving forward by the stepping from contacting the moving body 100. Thereby, the situation where the moving body 100 interferes with the user 150 moving forward is suppressed.

また、本実施形態によれば、ユーザ150の足の動きの予測は、センシング部10からの入力に基づき算出される、ユーザ150が前進する際に足を動かすリズムおよび歩幅に基づいて予測される。よって、足の動きの予測を比較的簡易な計算によって行うことができる。   In addition, according to the present embodiment, the prediction of the movement of the foot of the user 150 is predicted based on the rhythm and the stride that is calculated based on the input from the sensing unit 10 and moves the foot when the user 150 moves forward. . Therefore, the motion of the foot can be predicted by a relatively simple calculation.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変形が可能であることは容易に推察できるものである。   As described above, the present invention has been described based on the embodiments, but the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. It can be guessed.

例えば、上記実施形態で挙げた数値は一例であり、他の数値を採用することは当然可能である。   For example, the numerical values given in the above embodiment are merely examples, and other numerical values can naturally be adopted.

上記実施形態では、通常時において、ユーザ150の右足150Rおよび左足150Lのうち、ユーザ150が基準足として設定された側の領域130Lまたは領域130Rの範囲内で、基準足の動きに応じて移動するよう構成した。これに代えて、右足150Rまたは左足150Lが踏みされる毎に、踏み出された足の動きに基づいて、踏み出した足の前方の領域に位置する移動体が、踏み出した足とは異なる足の前方に移動するよう、移動目標位置を算出する構成としてもよい。   In the above embodiment, during the normal time, the user 150 moves in accordance with the movement of the reference foot within the region 130L or the region 130R on the side set as the reference foot among the right foot 150R and the left foot 150L of the user 150. It was configured as follows. Instead, each time the right foot 150R or the left foot 150L is stepped, based on the movement of the stepped foot, the moving body located in the area in front of the stepped foot is different from the stepped foot. It is good also as a structure which calculates a movement target position so that it may move to.

本変形例によれば、踏み出しを行わない側の足の前方に移動体100を位置させることができるので、移動体100が、踏み出しにより前方に移動する足に接触することを抑制できる。本変形例においても、図6に示すように、移動体100の移動軌跡が、ユーザ150に対して前方に膨らむようにしたり、図7に示すように、移動体100の移動タイミングを考慮することが好ましい。   According to the present modification, the moving body 100 can be positioned in front of the foot on which no stepping is performed, so that the moving body 100 can be prevented from coming into contact with the foot that moves forward due to the stepping. Also in this modified example, as shown in FIG. 6, the movement trajectory of the moving body 100 swells forward with respect to the user 150, or the moving timing of the moving body 100 is considered as shown in FIG. 7. Is preferred.

上記実施形態では、ユーザ150の基準足の前方に物体300が検出された場合、図6に示すように、移動体100を領域130Rから領域130Lに移動させる際に、その移動軌跡が、ユーザ150に対して前方に膨らむ軌跡Eとなるような移動目標位置101を算出した。移動体100の移動タイミングを考慮することにより、軌跡Eより短い軌跡で移動体100を領域130Rから領域130Lに移動させるようにしてもよい。   In the above embodiment, when the object 300 is detected in front of the reference foot of the user 150, as shown in FIG. 6, when the moving body 100 is moved from the region 130R to the region 130L, the movement locus is the user 150. The movement target position 101 is calculated so that the locus E bulges forward. By considering the moving timing of the moving body 100, the moving body 100 may be moved from the area 130R to the area 130L along a path shorter than the path E.

図7および図8は、本変形例を説明するための模式図である。本変形例では、ユーザ150の基準足の前方に物体300が検出された場合、基準足とは異なる足の踏み出し中に、移動体が、基準足の前方から、基準足とは異なる足の接地位置の前方に向けて移動し、基準足とは異なる足が接地する付近のタイミングにおいて、当該基準足とは異なる足の接地位置の前方に到達するよう、移動目標位置が算出される。   7 and 8 are schematic diagrams for explaining the present modification. In this modified example, when the object 300 is detected in front of the reference foot of the user 150, the moving body touches the foot different from the reference foot from the front of the reference foot during the stepping of the foot different from the reference foot. The movement target position is calculated so as to reach the front of the ground contact position of the foot different from the reference foot at a timing near the position where the foot moves differently from the reference foot and the foot different from the reference foot contacts the ground.

つまり、基準足を右足150Rすると、基準足(右足150R)の前方に物体300が検出された場合には、図7に示すように、左足150Lの踏み出し中に、移動体100が、右足150Rの前方から、左足150Lの接地位置の前方に向けて移動し、左足150Lが接地する付近のタイミングにおいて、左足150Lの接地位置の前方の位置100aに到達するよう、移動目標位置101が算出される。   That is, when the reference foot is the right foot 150R and the object 300 is detected in front of the reference foot (the right foot 150R), as shown in FIG. 7, the moving body 100 moves the right foot 150R while the left foot 150L is stepped on. The movement target position 101 is calculated so that it moves from the front toward the front of the ground contact position of the left foot 150L and reaches the position 100a in front of the ground contact position of the left foot 150L at the timing near the ground contact of the left foot 150L.

これにより、基準足の前方に位置する移動体100が、ユーザ150の前を横切り、左足150Lの前方に移動するので、移動体100が、物体300と接触する可能性が抑制される。このとき、移動体100は、踏み出さず軸となる基準足(右足150R)の前を横切り、踏み出した足(左足150L)の接地位置の前方に移動されるので、移動体100がユーザの前方を横切る状況において、移動体100がユーザ150の足150R,150Lに接触することを抑制できる。   Thereby, since the moving body 100 located in front of the reference foot crosses in front of the user 150 and moves to the front of the left foot 150L, the possibility that the moving body 100 contacts the object 300 is suppressed. At this time, the moving body 100 traverses the front of the reference foot (right foot 150R) as an axis without stepping on and is moved to the front of the ground contact position of the stepped foot (left foot 150L). In the situation of crossing, it can suppress that the mobile body 100 contacts the leg | foot 150R, 150L of the user 150. FIG.

また、移動タイミングを考慮して移動体100を移動させる場合には、移動体100は、踏み出さず軸となる足の前を横切るので、図8に示すように、移動体100を、ユーザ150に対して前方に膨らむ移動軌跡E(図6)とする必要はない。よって、移動体100を、比較的短い移動軌跡Fで移動させることができる。これにより、移動体100がユーザ150の前方を横切る時間をその分短くできるので、ユーザ150が、移動体100が前方を横切ったことによって受ける違和感を抑制できる。   Further, when moving the moving body 100 in consideration of the moving timing, the moving body 100 crosses the front of the foot as an axis without being stepped on. Therefore, as shown in FIG. On the other hand, it is not necessary to set it as the movement locus | trajectory E (FIG. 6) which swells ahead. Therefore, the moving body 100 can be moved along a relatively short movement locus F. Thereby, since the time which the mobile body 100 crosses the front of the user 150 can be shortened by that much, the uncomfortable feeling that the user 150 receives when the mobile body 100 crosses the front can be suppressed.

なお、物体300の存在に関係なく、右足150Rまたは左足150Lが踏みされる毎に、移動体100が、踏み出した足とは異なる足の前方から、当該踏み出した足の接地位置の前方に向けて移動し、踏み出した足が接地する付近のタイミングにおいて、当該踏み出した足の接地位置の前方に到達するよう、移動目標位置が算出される構成としてもよい。   Regardless of the presence of the object 300, each time the right foot 150R or the left foot 150L is stepped on, the moving body 100 moves from the front of the foot different from the stepped foot toward the front of the ground contact position of the stepped foot. The moving target position may be calculated so as to reach the front of the grounding position of the stepped foot at a timing near the point where the foot that has moved and stepped on touches the ground.

上記実施形態では、踏み出しにより前方に基準足が動く場合に、ユーザ150の前方、または、ユーザ150の左右方向のうち踏み出された足より外側に向かう方向への相対距離が広くなるような移動目標位置101を算出する構成とした。これに代えて、移動体100が、ユーザ150の前方、かつ、ユーザ150の左右方向のうち踏み出された足より内側に向かう方向への相対距離が広くなるような移動目標位置101を算出する構成としてもよい。例えば、基準足が右足150Rである場合に、ユーザ150の左前方向の相対距離が広くなるような移動目標位置101を算出してもよい。   In the above embodiment, when the reference foot moves forward by stepping, the movement target is such that the relative distance in the direction toward the outside of the stepped foot in front of the user 150 or in the left and right direction of the user 150 is widened. The position 101 is calculated. Instead, a configuration in which the moving body 100 calculates a movement target position 101 such that the relative distance in the direction toward the inner side from the stepped foot of the user 150 in the left and right directions of the user 150 is widened. It is good. For example, when the reference foot is the right foot 150R, the movement target position 101 may be calculated so that the relative distance in the left front direction of the user 150 becomes wide.

上記実施形態では、相対位置制御処理(図4)において、歩行中であることを条件として、S202〜S206の処理が実行される構成としたが、小走り程度の速度をS202〜S206の処理を実行する条件として含めてもよい。   In the above-described embodiment, in the relative position control process (FIG. 4), the process of S202 to S206 is executed on the condition that it is walking. However, the speed of the small run is executed in the process of S202 to S206. You may include as conditions to do.

上記実施形態では、制御部20は、移動体座標系における各パラメータを、ユーザ座標系に変換し、周辺の状態をユーザ150の状態を基準として把握する構成とした。これに代えて、制御部20は、移動体座標系における各パラメータ(すなわち、センシング部0からの入力に基づき取得される各パラメータ)から、ユーザ150および周辺の各状態を把握する構成としてもよい。 In the above-described embodiment, the control unit 20 is configured to convert each parameter in the moving body coordinate system into the user coordinate system and grasp the surrounding state on the basis of the state of the user 150. Instead of this, the control unit 20 may be configured to grasp the user 150 and surrounding states from each parameter (that is, each parameter acquired based on an input from the sensing unit 10) in the moving body coordinate system. Good.

100 移動体
150 ユーザ
100 mobile 150 users

Claims (5)

移動体であって、
ユーザの状況を検知するユーザ検知手段と、
前記ユーザ検知手段により検知された前記ユーザの状況に基づいて、前進する前記ユーザの足の動きを予測する予測手段と、
前記ユーザの右足または左足のうち、前記予測手段により予測される前方に踏み出される足の動きに基づいて、当該踏み出される足とは反対側の足の前方に向けて移動するよう、前記移動体の移動目標位置を設定する目標設定手段と、
前記移動体を前記目標設定手段により設定された移動目標位置へ向けて移動させる移動制御手段と、
を備えていることを特徴とする移動体。
A moving object,
User detection means for detecting the user's situation;
Predicting means for predicting the movement of the user's foot moving forward based on the user's situation detected by the user detecting means;
Based on the movement of the foot that is stepped forward predicted by the prediction means, of the right foot or the left foot of the user, the moving body is moved so as to move toward the front of the foot opposite to the stepped foot. Target setting means for setting the movement target position ;
Movement control means for moving the moving body toward the movement target position set by the target setting means;
A moving object comprising:
前記目標設定手段は、前記移動体の移動軌跡が前記ユーザに対して前方に膨らむよう、前記移動目標位置を設定することを特徴する請求項1に記載の移動体。 The target setting means, the movement locus of the moving body to bulge forwardly relative to the user, the moving body according to claim 1, characterized in that for setting the movement target position. 移動体であって、
ユーザの状況を検知するユーザ検知手段と、
前記ユーザ検知手段により検知された前記ユーザの状況に基づいて、前進する前記ユーザの足の動きを予測する予測手段と、
前記予測手段により予測される足の動きに基づいて、前記ユーザの右足または左足のうち一方の足の踏み出し中に、前記移動体が、前記踏み出した足とは異なる足の前方から、当該踏み出した足の接地位置の前方に向けて移動し、前記踏み出した足が接地する付近のタイミングにおいて、当該踏み出した足の接地位置の前方に到達するよう、前記移動体の移動目標位置を設定する目標設定手段と、
前記移動体を前記目標設定手段により設定された移動目標位置へ向けて移動させる移動制御手段と、
を備えていることを特徴とする移動体。
A moving object,
User detection means for detecting the user's situation;
Predicting means for predicting the movement of the user's foot moving forward based on the user's situation detected by the user detecting means;
Based on the movement of the foot predicted by the predicting means, during the stepping of one of the right foot or the left foot of the user, the moving body stepped out from the front of the foot different from the stepped foot. A target setting that moves toward the front of the ground contact position of the foot and sets the movement target position of the moving body so as to reach the front of the ground contact position of the stepped foot at the timing near the stepped foot grounds Means,
Movement control means for moving the moving body toward the movement target position set by the target setting means;
Moving body, characterized in that it comprises a.
周辺の状況を検知する周辺状況検知手段を備え、
前記目標設定手段は、前記ユーザの右足または左足のうち一方の足を基準足とし、前記周辺状況検知手段により前記基準足の前方に物体が検知された場合、当該基準足とは異なる足の踏み出し中に、前記移動体が、前記基準足の前方から、当該基準足とは異なる足の接地位置の前方に向けて移動し、前記基準足とは異なる足が接地する付近のタイミングにおいて、当該基準足とは異なる足の接地位置の前方に到達するよう、前記移動目標位置を設定することを特徴とする請求項記載の移動体。
It is equipped with a surrounding situation detection means for detecting the surrounding situation,
The target setting means uses one of the user's right foot or left foot as a reference foot, and when an object is detected in front of the reference foot by the surrounding state detection means, a step of a foot different from the reference foot The moving body moves from the front of the reference foot toward the front of the ground contact position of the foot different from the reference foot, and at the timing near the time when the foot different from the reference foot contacts the ground. 4. The moving body according to claim 3 , wherein the movement target position is set so as to reach the front of the ground contact position of the foot different from the foot.
前記予測手段は、前記ユーザ検知手段により検知された前記ユーザの状況に基づいて、前記ユーザが前進する際に足を動かすリズムおよび歩幅を算出し、算出されたリズムおよび歩幅に基づいて、前記ユーザの足の動きを予測することを特徴とする請求項1からのいずれかに記載の移動体。 The prediction means calculates a rhythm and stride to move a foot when the user moves forward based on the user situation detected by the user detection means, and based on the calculated rhythm and stride, the user The moving body according to any one of claims 1 to 4 , wherein the movement of the foot is predicted.
JP2015064947A 2015-03-26 2015-03-26 Moving body Active JP6402429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015064947A JP6402429B2 (en) 2015-03-26 2015-03-26 Moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015064947A JP6402429B2 (en) 2015-03-26 2015-03-26 Moving body

Publications (2)

Publication Number Publication Date
JP2016184337A JP2016184337A (en) 2016-10-20
JP6402429B2 true JP6402429B2 (en) 2018-10-10

Family

ID=57243098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015064947A Active JP6402429B2 (en) 2015-03-26 2015-03-26 Moving body

Country Status (1)

Country Link
JP (1) JP6402429B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6713619B2 (en) 2017-03-30 2020-06-24 株式会社エクォス・リサーチ Body orientation estimation device and body orientation estimation program
JP6623203B2 (en) * 2017-10-24 2019-12-18 日本電信電話株式会社 Personal space estimation device, personal space estimation method, and personal space estimation system
JP6894595B2 (en) * 2018-03-28 2021-06-30 株式会社エクォス・リサーチ Mobile
JP6894596B2 (en) 2018-03-29 2021-06-30 株式会社エクォス・リサーチ Mobile
JP2019179460A (en) * 2018-03-30 2019-10-17 株式会社エクォス・リサーチ Moving body
JP2019179285A (en) * 2018-03-30 2019-10-17 株式会社エクォス・リサーチ Moving body
JP7135387B2 (en) * 2018-03-30 2022-09-13 株式会社アイシン mobile
WO2020014991A1 (en) * 2018-07-20 2020-01-23 Lingdong Technology (Beijing) Co. Ltd Smart self-driving systems with side follow and obstacle avoidance
JP7351083B2 (en) * 2018-12-28 2023-09-27 富士フイルムビジネスイノベーション株式会社 Autonomous mobile devices and programs
EP3697252B1 (en) * 2019-01-04 2021-07-07 Lingdong Technology (Beijing) Co. Ltd Smart luggage system with camera installed in pull rod

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4440174B2 (en) * 2004-07-07 2010-03-24 パナソニック株式会社 Mobile object subject accompaniment method and mobile object subject accompaniment apparatus
JP2007334500A (en) * 2006-06-13 2007-12-27 Toyota Motor Corp Autonomous mobile device
JP2009151382A (en) * 2007-12-18 2009-07-09 Toyota Motor Corp Traveling object

Also Published As

Publication number Publication date
JP2016184337A (en) 2016-10-20

Similar Documents

Publication Publication Date Title
JP6402429B2 (en) Moving body
JP6992045B2 (en) Tactile guidance system
US10831311B2 (en) Assistive device for non-visually discerning a three-dimensional (3D) real-world area surrounding a user
JP6388141B2 (en) Moving body
JP2019123074A (en) Charging station for housing and charging robot
US9801778B2 (en) System and method for alerting visually impaired users of nearby objects
US11726571B2 (en) Assistive device for non-visually discerning a three-dimensional (3D) real-world area surrounding a user
WO2018077307A1 (en) Movement control method and apparatus, and computer storage medium
KR20140128306A (en) Information processing device, information processing method, and program
JP2009025898A (en) Route planning device, route planning method and traveling object
US20170206666A1 (en) Information processing apparatus, information processing method, and program
JP2011204145A (en) Moving device, moving method and program
WO2017115548A1 (en) Moving body
EP3300841B1 (en) Communication device
KR20180051838A (en) Informing method and apparatus of approaching of the other party to pedestrian and passenger
JP6604546B2 (en) Moving body
JP2009157581A (en) Pedestrian detection device
JP2019159193A (en) Behavior support device for visually impaired person
US20160229063A1 (en) Robot, control method, and program
KR20200135998A (en) Position posture detection method and device, electronic device and storage medium
US20170178469A1 (en) Fan-driven force device
JP2010057593A (en) Walking assisting system for vision challenging person
JP5219535B2 (en) Autonomous mobile wheelchair
JP2022187852A (en) Robot system and remote control method
US20150312447A1 (en) Visual image device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180824

R150 Certificate of patent or registration of utility model

Ref document number: 6402429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150