JP7291340B2 - controller - Google Patents

controller Download PDF

Info

Publication number
JP7291340B2
JP7291340B2 JP2019013591A JP2019013591A JP7291340B2 JP 7291340 B2 JP7291340 B2 JP 7291340B2 JP 2019013591 A JP2019013591 A JP 2019013591A JP 2019013591 A JP2019013591 A JP 2019013591A JP 7291340 B2 JP7291340 B2 JP 7291340B2
Authority
JP
Japan
Prior art keywords
robot
controller
operator
information
oral cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019013591A
Other languages
Japanese (ja)
Other versions
JP2020123070A (en
Inventor
亮 三枝
薪雄 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Toyohashi University of Technology NUC
Original Assignee
Sintokogio Ltd
Toyohashi University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd, Toyohashi University of Technology NUC filed Critical Sintokogio Ltd
Priority to JP2019013591A priority Critical patent/JP7291340B2/en
Publication of JP2020123070A publication Critical patent/JP2020123070A/en
Application granted granted Critical
Publication of JP7291340B2 publication Critical patent/JP7291340B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラに関する。 TECHNICAL FIELD The present invention relates to a controller that remotely controls an object and that is operated by an operator in the oral cavity.

近年、様々な用途のロボットが熱心に開発されており、移動の自由度が低下している患者に向けてテレプレゼンスを提供するためのロボットもその一態様である。患者自身が自由に移動できない状況であっても、患者が操作者となってロボットを遠隔操作することによって、当該ロボットを自身から離れた場所へ移動させることができるので、操作者は、当該ロボットを介して自身から離れた場所の雰囲気を体験したり、当該ロボットの周囲に存在する人とコミュニケーションを図ったりすることができる。 In recent years, robots for various purposes have been enthusiastically developed, and a robot for providing telepresence to a patient whose degree of freedom of movement is reduced is one example. Even if the patient himself/herself cannot move freely, the patient can act as an operator and remotely control the robot to move the robot to a place away from the patient. Through the robot, you can experience the atmosphere of a place away from yourself, and communicate with people around the robot.

ところで、従来、操作者がロボットを遠隔操作するためには、キーボードやジョイスティックなどに代表される手で操作するコントローラが用いられていた。 By the way, conventionally, in order for an operator to remotely control a robot, a hand-operated controller typified by a keyboard or a joystick has been used.

そのため、手が不自由な操作者にとって、ロボットを遠隔操作することは、困難であった。 Therefore, it is difficult for an operator with handicapped hands to remotely operate the robot.

特開2004-329954号公報JP 2004-329954 A 特開2005-215818号公報JP 2005-215818 A 特開2009-169464号公報JP 2009-169464 A

ところで、手が不自由な操作者のための入力装置であって、操作者の口腔を用いて操作する入力装置が特許文献1~3に記載されている。これらの入力装置のように、ロボットを遠隔操作するためのコントローラを口腔内で操作することも考えられる。 By the way, Patent Documents 1 to 3 describe an input device for an operator with a handicapped hand, which is operated using the operator's oral cavity. It is also conceivable to operate a controller for remotely controlling a robot like these input devices in the oral cavity.

しかしながら、ロボットを遠隔操作するためには、コントローラを自由に操作することができるかという課題に加えて、自身から離れた場所に存在するロボットの状態を把握することが難しいという課題がある。 However, in order to remotely control a robot, in addition to the problem of being able to freely operate the controller, there is also the problem that it is difficult to grasp the state of the robot that exists in a remote location.

本発明の一態様に係るコントローラは、上述した課題に鑑みなされたものであり、その目的は、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、自身から離れた場所に存在するロボットの状態を操作者が把握可能にすることである。 A controller according to an aspect of the present invention has been made in view of the above-described problems, and an object thereof is to provide a controller that remotely controls an object, and is a controller that is operated by an operator in the oral cavity so that the controller moves away from the operator. It is to enable an operator to grasp the state of a robot existing in a certain place.

上記の課題を解決するために、本発明の一態様に係るコントローラは、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔及び顔面の少なくとも何れか一方に与える刺激付与部を備えている。 In order to solve the above problems, a controller according to one aspect of the present invention is a controller that remotely controls an object, the controller being operated by an operator in the oral cavity, in which information fed back from the object is A stimulus applying unit is provided for applying a corresponding stimulus to at least one of the oral cavity and the face of the operator.

本発明の一態様によれば、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、自身から離れた場所に存在するロボットの状態を操作者が把握することができる。 According to one aspect of the present invention, in a controller that remotely controls an object and is operated by an operator in the oral cavity, the operator can grasp the state of a robot that exists at a location away from the operator. can.

(a)は、本発明の第1の実施形態に係るコントローラのブロック図である。(b)は、(a)に示したコントローラにより遠隔制御されるロボットのブロック図である。1A is a block diagram of a controller according to a first embodiment of the present invention; FIG. (b) is a block diagram of a robot remotely controlled by the controller shown in (a). (a)は、図1の(a)に示したコントローラの斜視図である。(b)は、図1の(b)に示したロボットの斜視図である。(c)は、操作者の口腔により保持された状態の上記コントローラの斜視図である。(d)は、操作者の口腔により保持された状態の上記コントローラの背面図である。(a) is a perspective view of the controller shown in (a) of FIG. (b) is a perspective view of the robot shown in (b) of FIG. (c) is a perspective view of the controller held by the operator's oral cavity. (d) is a rear view of the controller held by the operator's oral cavity. 本発明の変形例に係るコントローラの斜視図であって、操作者の口腔により保持された状態の上記コントローラの斜視図である。FIG. 10 is a perspective view of a controller according to a modification of the present invention, and is a perspective view of the controller held by an operator's mouth. 操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作している様子を示す斜視図である。FIG. 3 is a perspective view showing how an operator operates a robot using the controller according to the first embodiment of the present invention; (a),(c),(e)の各々は、それぞれ、第1~第3の操作者がキーボードを用いてロボットを操作した軌跡を示す平面図である。(b),(d),(f)の各々は、それぞれ、第1~第3の操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作した軌跡を示す平面図である。Each of (a), (c), and (e) is a plan view showing trajectories of first to third operators using keyboards to operate the robot. Each of (b), (d), and (f) is a plan view showing the trajectory of the first to third operators operating the robot using the controller according to the first embodiment of the present invention. be. (a)は、第4の操作者がゲーム用のコントローラを用いてロボットを操作した軌跡を示す平面図である。(b)は、第4の操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作した軌跡を示す平面図である。(a) is a plan view showing a trajectory of a robot operated by a fourth operator using a game controller. (b) is a plan view showing a trajectory of a robot operated by a fourth operator using the controller according to the first embodiment of the present invention;

〔第1の実施形態〕
本発明の第1の実施形態に係るコントローラ10と、コントローラ10により遠隔制御されるロボット20とについて、図1及び図2を参照して説明する。
図1の(a)は、コントローラ10のブロック図である。図1の(b)は、ロボット20のブロック図である。図2の(a)は、コントローラ10の斜視図である。図2の(b)は、ロボット20の斜視図である。図2の(c)は、操作者の口腔Pにより保持された状態のコントローラ10の斜視図である。図2の(d)は、口腔Pにより保持された状態のコントローラ10の背面図である。
[First embodiment]
A controller 10 according to a first embodiment of the present invention and a robot 20 remotely controlled by the controller 10 will be described with reference to FIGS. 1 and 2. FIG.
FIG. 1(a) is a block diagram of the controller 10. FIG. FIG. 1(b) is a block diagram of the robot 20. As shown in FIG. FIG. 2(a) is a perspective view of the controller 10. FIG. FIG. 2B is a perspective view of the robot 20. FIG. FIG. 2(c) is a perspective view of the controller 10 held by the operator's oral cavity PO . (d) of FIG. 2 is a rear view of the controller 10 held by the oral cavity PO .

(口腔を用いることのメリット)
これまでの脳に関する研究により、人の口腔P及び顔の運動野及び体性感覚野は、脳の広範な領域に亘っており、指及び手腕の運動野及び体性感覚野の広さに匹敵することが分かっている。したがって、口腔P及び顔は、刺激の感受に優れており、訓練をすることによってより確度が高いコントローラの操作を実現可能ではないかと期待される。すなわち、口腔P及び顔は、コントローラを操作する操作部として大きな潜在能力を有していると考えられる。
(Benefits of using the oral cavity)
According to previous studies on the brain, the oral cavity PO and the facial motor and somatosensory areas of the human body cover a wide area of the brain. I know they are comparable. Therefore, the oral cavity PO and the face are highly sensitive to stimuli, and it is expected that more accurate controller operations can be realized through training. In other words, the oral cavity PO and face are considered to have great potential as operating parts for operating the controller.

また、交通事故や、筋萎縮性側索硬化症(ALS)などの様々な理由により四肢が麻痺しているなど運動の自由度が低下している患者であっても、口腔P及び顔は、麻痺していない場合も多い。そのため、対象物であり、且つ、操作者にテレプレゼンスを提供するためのロボット20を遠隔制御するコントローラ10であって、操作者が口腔内で操作するコントローラ10は、運動の自由度が低下した患者であって、これまではロボット20を遠隔操作することが困難であった患者に対しても、ロボット20を遠隔操作する機会を提供することができる。したがって、コントローラ10は、運動の自由度が低下した多くの患者に対してテレプレゼンスの機会を提供することができるので、これらの患者の生活の質を高めることができる。 In addition, even in patients with reduced freedom of movement such as paralysis of limbs due to various reasons such as traffic accidents and amyotrophic lateral sclerosis (ALS), oral PO and face , often not paralyzed. Therefore, the controller 10, which is an object and which remotely controls the robot 20 for providing telepresence to the operator, and which is operated by the operator in the oral cavity, has a reduced degree of freedom of movement. It is possible to provide an opportunity to remotely operate the robot 20 even to a patient who has been difficult to remotely operate the robot 20 until now. Accordingly, the controller 10 can provide telepresence opportunities to many patients with reduced freedom of movement, thereby enhancing their quality of life.

(コントローラ10及びロボット20の概要)
コントローラ10(図1の(a)参照)は、操作者が口腔P内で操作するコントローラであって、本実施形態では、対象物の一例であるロボット20(図1の(b)参照)を遠隔制御するコントローラである。
(Overview of Controller 10 and Robot 20)
The controller 10 (see (a) in FIG. 1) is a controller operated by an operator in the oral cavity PO , and in this embodiment, a robot 20 (see (b) in FIG. 1), which is an example of a target object. is a controller that remotely controls the

コントローラ10は、例えば、入出力装置の1つとして、図1の(a)には図示していないパソコン(例えば図4に示したパソコンPC)に接続されている。パソコンは、コントローラ10が生成した遠隔制御情報であって、ロボット20を遠隔制御するため遠隔制御情報を、ロボット20へネットワークを介して供給する。 The controller 10, for example, is connected to a personal computer not shown in FIG. 1(a) (for example, the personal computer PC shown in FIG. 4) as one of the input/output devices. The personal computer supplies the remote control information generated by the controller 10 to the robot 20 via the network in order to remotely control the robot 20 .

なお、コントローラ10は、パソコンに対して、ケーブルを用いて有線接続されていてもよいし、Bluetooth(登録商標)などの技術を用いて無線接続されていてもよい。本実施形態においては、コントローラ10は、パソコンに対して無線接続されているものとして説明する。 Note that the controller 10 may be wired to the personal computer using a cable, or may be wirelessly connected using a technology such as Bluetooth (registered trademark). In this embodiment, it is assumed that the controller 10 is wirelessly connected to a personal computer.

ロボット20は、ネットワークを介して上述したパソコンに接続されている。ロボット20は、電力を利用して走行可能な電動ロボットであり、コントローラ10が生成した遠隔制御情報に応じてその移動を制御されている。 The robot 20 is connected to the above-described personal computer via a network. The robot 20 is an electric robot that can run using electric power, and its movement is controlled according to remote control information generated by the controller 10 .

ロボット20は、複数のセンサを備えていることにより、自身の周囲における様々な状況を検知することができる。ロボット20は、検知した状況が所定の状況である場合に、そのことを操作者にフィードバックするためのフィードバック情報を生成する。ロボット20は、フィードバック情報をパソコンへネットワークを介して供給する。 The robot 20 can detect various situations in its surroundings by being equipped with a plurality of sensors. When the detected situation is a predetermined situation, the robot 20 generates feedback information for feeding this fact back to the operator. The robot 20 supplies feedback information to the personal computer via the network.

上述した所定の状況の例としては、ロボット20の走行に障害がある状況、及び、ロボット20の周囲に人が存在する状況が挙げられる。前者の場合、ロボット20は、ロボット20の走行に障害があることを示すフィードバック情報を生成する。また、後者の場合、ロボット20は、ロボット20の周囲に人が存在することを示すフィードバック情報を生成する。 Examples of the predetermined situation described above include a situation in which the robot 20 has an obstacle in its running and a situation in which there are people around the robot 20 . In the former case, the robot 20 generates feedback information indicating that there is an obstacle in running the robot 20 . Also, in the latter case, the robot 20 generates feedback information indicating that there are people around the robot 20 .

パソコンは、ロボット20が生成したフィードバック情報をコントローラ10へ供給する。 The personal computer supplies feedback information generated by the robot 20 to the controller 10 .

コントローラ10が備えている刺激付与部は、ロボット20が生成したフィードバック情報、すなわち、ロボット20からフィードバックされた情報に応じた刺激を、操作者の口腔P及び顔面の少なくとも何れか一方に与える。本実施形態では、刺激付与部として、6個のバイブレータ14a~14fを採用している場合について説明する。バイブレータ14a~14fの各々は、ロボット20からフィードバックされた情報に応じた触覚刺激を上記操作者の口腔P及び顔面の少なくとも何れか一方に与える。 A stimulus application unit included in the controller 10 provides feedback information generated by the robot 20, that is, stimulation corresponding to information fed back from the robot 20 to at least one of the oral cavity PO and face of the operator. In this embodiment, a case where six vibrators 14a to 14f are employed as the stimulus application unit will be described. Each of the vibrators 14a to 14f gives a tactile sensation stimulation corresponding to the information fed back from the robot 20 to at least one of the oral cavity PO and face of the operator.

以下では、図1の(a)及び図2の(a)を参照してコントローラ10の構成について説明し、図1の(b)及び図2の(b)を参照してロボット20の構成について説明し、図2の(a)~(d)を参照して、コントローラ10の使用方法及びロボット20の遠隔制御の例について説明する。 The configuration of the controller 10 will be described below with reference to FIGS. 1(a) and 2(a), and the configuration of the robot 20 will be described with reference to FIGS. 1(b) and 2(b). 2(a)-(d), an example of how to use the controller 10 and remote control of the robot 20 will be described.

(コントローラ10の構成)
図1の(a)に示すように、コントローラ10は、制御部11と、第1のセンサ12と、第2のセンサ13と、バイブレータ14a~14fと、圧力センサ15と、ベース16と、レバー17とを備えている。
(Configuration of controller 10)
As shown in FIG. 1(a), the controller 10 includes a control unit 11, a first sensor 12, a second sensor 13, vibrators 14a to 14f, a pressure sensor 15, a base 16, a lever 17.

ベース16は、樹脂製の筐体であって、後述する制御部11及び第1のセンサ12を収容する。ベース16は、操作者の上あご及び下あごにより挟持されることによって、口腔Pの近傍に保持される(図2の(c)及び(d)参照)。口腔Pに対する感触を和らげ、上あご及び下あごによる保持性を高め、且つ、防水性を高めるために、ベース16のうち口腔P側の部分は、柔らかい樹脂(本実施形態ではシリコーン樹脂)により覆われていることが好ましい。なお、図2の(a),(c),(d)においては、この柔らかい樹脂を図示していない。 The base 16 is a housing made of resin, and accommodates the control unit 11 and the first sensor 12, which will be described later. The base 16 is held in the vicinity of the oral cavity PO by being clamped by the upper and lower jaws of the operator (see (c) and (d) in FIG. 2). The portion of the base 16 on the oral cavity PO side is made of a soft resin (silicone resin in this embodiment) in order to soften the feel of the oral cavity PO , enhance the holdability by the upper and lower jaws, and improve waterproofness. It is preferably covered with This soft resin is not shown in FIGS. 2(a), (c), and (d).

レバー17は、一方の端部がベース16の内部に保持されており、他方の端部がベース16の外部に突出した、樹脂製の棒状部材である。レバー17の他方の端部が突出する方向は、上あご及び下あごにより保持された状態のベース16において、口腔P側に向かう方向である(図2の(a)及び(c)参照)。 The lever 17 is a rod-shaped member made of resin, one end of which is held inside the base 16 and the other end of which protrudes outside the base 16 . The direction in which the other end of the lever 17 protrudes is the direction toward the mouth PO side of the base 16 held by the upper and lower jaws (see FIGS. 2(a) and 2(c)). .

レバー17の一方の端部は、ベース16の内部に摺動可能な状態で保持されているので、レバー17の他方の端部は、ベース16に対して2次元的に操作することができる。操作者は、自身の舌を用いてレバー17の他方の端部を2次元的に操作する。 Since one end of the lever 17 is slidably held inside the base 16 , the other end of the lever 17 can be operated two-dimensionally with respect to the base 16 . The operator two-dimensionally operates the other end of the lever 17 using his/her own tongue.

第1のセンサ12は、姿勢センサであって、上述したように、筐体であるベース16の内部に収容されている。 The first sensor 12 is an orientation sensor, and is accommodated inside the base 16, which is a housing, as described above.

第2のセンサ13は、第1のセンサ12と同じ構成を有する姿勢センサであって、レバー17の他方の端部に配置されている。なお、第2のセンサ13は、ベース16のうち口腔P側の部分とともに、上述した柔らかい樹脂により覆われていることが好ましい。 The second sensor 13 is a posture sensor having the same configuration as the first sensor 12 and is arranged at the other end of the lever 17 . The second sensor 13 is preferably covered with the above-described soft resin together with the portion of the base 16 on the oral cavity PO side.

バイブレータ14a~14fの各々は、後述する刺激付与部制御部115から制御されることによって振動する。本実施形態において、バイブレータ14a~14fの各々は、口腔P内に配置されるように構成されており、制御部11に対して有線接続されている(図1の(a)参照)。具体的には、バイブレータ14a~14cの各々は、口腔P内の上あごの右側、中央、及び左側に配置されており、バイブレータ14d~14fの各々は、口腔Pの内の下あごの右側、中央、及び左側に配置されている(図2の(c),(d)参照)。 Each of the vibrators 14a to 14f vibrates under the control of the stimulus applying unit control unit 115, which will be described later. In this embodiment, each of the vibrators 14a to 14f is configured to be placed in the oral cavity PO , and is wired to the controller 11 (see (a) in FIG. 1). Specifically, each of the vibrators 14a to 14c is arranged on the right, center, and left sides of the upper jaw in the oral cavity P 2 O , and each of the vibrators 14d to 14f is arranged on the lower jaw in the oral cavity P 2 O. They are arranged on the right, center, and left sides (see (c) and (d) of FIG. 2).

バイブレータ14d~14fの各々を口腔P内の空間の予め定められた位置に配置することによって、制御部11は、ロボット20の周囲の空間に関する空間情報を口腔P内の空間内に投射することによって、ロボット20の周囲の空間の様子をより詳しく操作者にフィードバックすることができる。 By arranging each of the vibrators 14d to 14f at predetermined positions in the space within the oral cavity P 2 O , the control unit 11 projects spatial information about the space around the robot 20 into the space within the oral cavity P 2 O. As a result, the state of the space around the robot 20 can be fed back to the operator in more detail.

なお、図2の(c)及び(d)においては、バイブレータ14a~14fの各々と、制御部11とを接続するケーブルの図示を省略している。また、本実施形態では、刺激付与部として6個のバイブレータ14d~14fを採用している。しかし、バイブレータの数は、限定されるものではない。例えば、バイブレータの数を更に増やすことによって、口腔P内の空間により密にバイブレータを配置してもよい。 In addition, in (c) and (d) of FIG. 2, illustration of cables connecting each of the vibrators 14a to 14f and the control unit 11 is omitted. In addition, in this embodiment, six vibrators 14d to 14f are employed as stimulus applying units. However, the number of vibrators is not limited. For example, by further increasing the number of vibrators, the vibrators may be arranged more densely in the space within the oral cavity PO .

また、バイブレータ14d~14fは、図2の(c)及び(d)に示すように、上あご又は下あごに直接接するように配置されていてもよいし、口腔P内にフィットするように成形されたマウスピースの内部又は歯茎側の表面に配置されていてもよい。バイブレータ14d~14fをマウスピースに配置する場合、例えば、ベース16のうち口腔P側の部分を柔らかい樹脂により構成し、その柔らかい樹脂を口腔P内にフィットする形状に成形することによって、マウスピースを構成することができる。 Also, the vibrators 14d to 14f may be arranged so as to be in direct contact with the upper jaw or the lower jaw, as shown in (c) and (d) of FIG . It may be located inside the molded mouthpiece or on the gum-side surface. When the vibrators 14d to 14f are arranged in the mouthpiece, for example, the portion of the base 16 on the side of the mouth P 2 O is made of soft resin, and the soft resin is molded into a shape that fits inside the mouth P 2 O. Pieces can be configured.

圧力センサ15は、ベース16のうち口腔P側の部分に配置されており、歯に噛まれることによってベース16に加えられる圧力を検出し、その圧力を示す圧力信号を制御部11へ供給する。制御部11は、供給された圧力信号が表す圧力と、予め定められた閾値とを参照し、上記圧力が上記閾値を上回っているか否かに応じて、スイッチのON又はOFFを切り替える。圧力センサ15は、如何なる機能のスイッチとしても利用可能である。例えば、圧力センサ15は、モード切替スイッチや、イネーブルスイッチとして利用可能である。 The pressure sensor 15 is arranged in a portion of the base 16 on the oral cavity PO side, detects pressure applied to the base 16 by biting the teeth, and supplies a pressure signal indicating the pressure to the control unit 11 . . The control unit 11 refers to the pressure represented by the supplied pressure signal and a predetermined threshold value, and switches ON or OFF of the switch according to whether the pressure exceeds the threshold value. Pressure sensor 15 can be used as a switch for any function. For example, the pressure sensor 15 can be used as a mode changeover switch or enable switch.

第1のセンサ12及び第2のセンサ13として採用する姿勢センサは、市販されている姿勢センサのなかから適宜選択して採用することができる。また、これらの姿勢センサは、市販されている加速度センサとジャイロセンサとを組み合わせることによって実現することもできる。 The orientation sensors employed as the first sensor 12 and the second sensor 13 can be appropriately selected from among commercially available orientation sensors and employed. These attitude sensors can also be realized by combining commercially available acceleration sensors and gyro sensors.

第1のセンサ12及び第2のセンサ13の各々は、自身の姿勢を3次元のベクトル量として検知することができる。以下において、第1のセンサ12の姿勢を示す3次元のベクトル量である姿勢情報を第1の姿勢情報と称し、第2のセンサ13の姿勢を示す3次元のベクトル量である姿勢情報を第2の姿勢情報と称する。 Each of the first sensor 12 and the second sensor 13 can detect its own orientation as a three-dimensional vector quantity. In the following, the orientation information that is a three-dimensional vector quantity indicating the orientation of the first sensor 12 is referred to as first orientation information, and the orientation information that is a three-dimensional vector quantity indicating the orientation of the second sensor 13 is referred to as the first orientation information. 2 attitude information.

そのうえで、第1のセンサ12及び第2のセンサ13の各々は、レバー17がベース16に対する原点に位置する状態(すなわち操作者がレバー17を操作していない状態)において、第1の姿勢情報と、第2の姿勢情報とが一致するように、それぞれ配置されている。 Then, each of the first sensor 12 and the second sensor 13 receives the first attitude information and the , and the second orientation information.

操作者が舌を用いてレバー17を操作した場合、第1の姿勢情報と、第2の姿勢情報との間に差分が生じる。後述するように、制御部11は、第1の姿勢情報と、第2の姿勢情報との差分から、レバー17の操作された方向及びレバー17の操作された量(すなわちレバー17の操作ベクトル)を特定することができる。 When the operator uses the tongue to operate the lever 17, a difference occurs between the first posture information and the second posture information. As will be described later, the control unit 11 determines the direction in which the lever 17 is operated and the amount by which the lever 17 is operated (that is, the operation vector of the lever 17) based on the difference between the first orientation information and the second orientation information. can be specified.

(ロボット20の構成)
図1の(b)及び図2の(b)に示すように、ロボット20は、制御部21と、タブレット端末22と、磁界センサ23と、レーザ測域センサ24と、駆動機構25と、筐体26とを備えている。なお、図1の(b)に示した二点鎖線は、後述するロボット20の変形例における情報の伝送系路を示すものである。
(Configuration of robot 20)
As shown in (b) of FIG. 1 and (b) of FIG. a body 26; The chain double-dashed line shown in FIG. 1(b) indicates an information transmission path in a modified example of the robot 20, which will be described later.

図2の(b)に示すように、筐体26は、円筒形であり、その頭部が半球状に成形されている。筐体26は、その内部に、制御部21と、磁界センサ23と、駆動機構25とを収容している。また、筐体26の頭部には、タブレット端末22が設置されている。本実施形態において、タブレット端末22は、カメラ221と、液晶表示装置222とを備えている。 As shown in FIG. 2(b), the housing 26 is cylindrical and has a hemispherical head. The housing 26 accommodates the controller 21, the magnetic field sensor 23, and the driving mechanism 25 therein. A tablet terminal 22 is installed on the head of the housing 26 . In this embodiment, the tablet terminal 22 has a camera 221 and a liquid crystal display device 222 .

カメラ221は、ロボット20の前方の画像を撮影し、該画像を表す画像情報を生成するデジタルカメラである。カメラ221は、生成した画像情報を制御部21に供給する。カメラ221が生成する画像は、動画像であってもよいし、静止画像であってもよい。カメラ221は、ロボット20の周囲に人が存在する場合に、その人を検知する人感センサとして機能する。 The camera 221 is a digital camera that captures an image in front of the robot 20 and generates image information representing the image. The camera 221 supplies the generated image information to the control section 21 . An image generated by the camera 221 may be a moving image or a still image. The camera 221 functions as a human sensor that detects a person when there is a person around the robot 20 .

なお、本実施形態において、カメラ221は、ロボット20の前方の画像のみを撮影するように構成されている。しかし、カメラ221は、円筒形である筐体26の中心軸を回転軸として、その軸回りにその画角を回転可能なように配置されており、ロボット20の全方位の画像を順次撮影するように構成されていてもよい。また、ロボット20は、複数のカメラを備えており、ロボット20の全方位の画像を撮影可能なように構成されていてもよい。これらのように、カメラがロボット20の全方位の画像を撮影可能であることによって、ロボット20は、その周囲に人が存在することをより高い確度で検知することができる。 In addition, in this embodiment, the camera 221 is configured to capture only an image in front of the robot 20 . However, the camera 221 is arranged so that its angle of view can be rotated about the central axis of the cylindrical housing 26 as a rotation axis, and sequentially captures omnidirectional images of the robot 20. It may be configured as Further, the robot 20 may be provided with a plurality of cameras, and may be configured to be able to capture an omnidirectional image of the robot 20 . As described above, the camera can capture an omnidirectional image of the robot 20, so that the robot 20 can detect the presence of people around it with a higher degree of certainty.

液晶表示装置222は、制御部21からの制御に応じて、ロボット20の感情を表す表情を表示する。 The liquid crystal display device 222 displays facial expressions that express the emotions of the robot 20 in accordance with control from the control unit 21 .

磁界センサ23は、ロボット20の周囲における磁界の強さを検出する磁界センサであり、ロボット20の周囲の空間の様子を検知する空間センサの一態様である。本実施形態において、磁界センサ23は、4つの磁界センサ231~234により構成されている。図2の(b)に示すように、磁界センサ231は、ロボット20の左斜め前方に配置されており、磁界センサ232は、左斜め後方に配置されており、磁界センサ233は、右斜め前方に配置されており、磁界センサ234は、右斜め後方に配置されている。 The magnetic field sensor 23 is a magnetic field sensor that detects the strength of the magnetic field around the robot 20 , and is one aspect of a space sensor that detects the state of the space around the robot 20 . In this embodiment, the magnetic field sensor 23 is composed of four magnetic field sensors 231-234. As shown in FIG. 2(b), the magnetic field sensor 231 is placed diagonally forward left of the robot 20, the magnetic field sensor 232 is placed diagonally rearward left, and the magnetic field sensor 233 is placed diagonally forward right. , and the magnetic field sensor 234 is arranged obliquely to the right rear.

図4を参照して後述するように、ロボット20が移動可能な通路が予め定められており、その通路の輪郭が磁界により規定されている場合がある。このような場合に、磁界センサ23及び制御部21は、ロボット20の周囲における磁界の強さを検出することによって、ロボット20が進もうとしている方向が、上述した通路に沿った方向なのか、上述した通路から外れる方向なのか特定することができる。 As will be described later with reference to FIG. 4, there are cases where a path along which the robot 20 can move is predetermined, and the contour of the path is defined by a magnetic field. In such a case, the magnetic field sensor 23 and the control unit 21 detect the strength of the magnetic field around the robot 20 to determine whether the direction in which the robot 20 is going is along the path described above. It is possible to identify whether the direction deviates from the passage described above.

また、本実施形態において、磁界センサ23は、4つの磁界センサ231~234により構成されている。4つの磁界センサ231~234の各々は、それぞれが検出した磁界の強さを表す第1~第4の磁界情報を生成する。第1~第4の磁界情報を解析することにより、制御部21は、上述した通路から外れる方向がロボット20の何れの方向であるのかを特定することができる。 Further, in this embodiment, the magnetic field sensor 23 is composed of four magnetic field sensors 231-234. Each of the four magnetic field sensors 231-234 generates first to fourth magnetic field information representing the strength of the magnetic field detected by each. By analyzing the first to fourth magnetic field information, the control unit 21 can specify which direction of the robot 20 is the direction of deviating from the path.

レーザ測域センサ24は、構造物や人などを検知可能な空間センサの一態様である。以下では、構造物を例にしてレーザ測域センサ24について説明するが、人も構造物と同様に検知することができる。レーザ測域センサ24は、市販されているレーザ測域センサから好適なスペックを有するレーザ測域センサを適宜選択すればよい。 The laser range sensor 24 is one aspect of a space sensor capable of detecting structures, people, and the like. Although the laser range sensor 24 will be described below using a structure as an example, a person can also be detected in the same way as a structure. As the laser range sensor 24, a laser range sensor having suitable specifications may be appropriately selected from commercially available laser range sensors.

レーザ測域センサ24は、ロボット20の周囲360度の領域内をレーザ光により走査することによって、その領域内に壁などの構造物が存在するか否か、及び、構造物が存在する場合には、構造物が位置する方向と、構造物までの距離を推定する。換言すれば、レーザ測域センサ24は、ロボット20の周囲の空間内における自己位置を推定することができる。構造物を検出可能なロボット20からの距離は、レーザ測域センサ24の性能に依存するが、例えば遮蔽物がない場合において10mである。 The laser range sensor 24 scans a 360-degree area around the robot 20 with a laser beam to determine whether or not a structure such as a wall exists within that area, and if a structure exists. estimates the direction in which the structure is located and the distance to the structure. In other words, the laser ranging sensor 24 can estimate its own position in the space around the robot 20 . The distance from the robot 20 at which a structure can be detected depends on the performance of the laser range sensor 24, but is, for example, 10 m when there is no obstacle.

レーザ測域センサ24は、ロボット20の周囲に構造物が存在するか否か、及び、構造物が存在する場合には、構造物が位置する方向と、構造物までの距離とを表す構造物情報を生成する。 The laser range sensor 24 indicates whether or not there is a structure around the robot 20, and if there is a structure, the direction in which the structure is located and the distance to the structure. Generate information.

駆動機構25は、電動モータと、該電動モータにより発生された駆動力を地面に伝える複数のタイヤとを備えている。複数のタイヤの各々は、上記駆動力を適宜分配して地面に伝えることによって、ロボット20を、前進させたり(図2の(b)に示す矢印B1)、後退させたり(図2の(b)に示す矢印B2)、右方向を向くように筐体26の軸回りに回転させたり(図2の(b)に示す矢印B3)、左方向を向くように筐体26の軸回りに回転させたり(図2の(b)に示す矢印B4)、することができる。 The drive mechanism 25 includes an electric motor and a plurality of tires that transmit the driving force generated by the electric motor to the ground. Each of the plurality of tires moves the robot 20 forward (arrow B1 shown in FIG. 2(b)) or retreats ((b ), rotate around the axis of the housing 26 to face the right direction (arrow B3 shown in (b) of FIG. 2), or rotate around the axis of the housing 26 to face the left direction. (Arrow B4 shown in (b) of FIG. 2).

また、ロボット20は、図1の(b)及び図2の(b)に図示しないスピーカ及びマイクを備えていてもよい。ロボット20がスピーカ及びマイクを備えていることによって、ロボット20は、自身の周囲に人が存在する場合に、その人とコミュニケーションを図ることができる。また、コントローラ10が接続されているパソコンが入出力装置としてスピーカ及びマイクを備えている場合であれば、操作者は、上述したパソコン及びロボット20を介して、ロボット20の周囲に存在している人とコミュニケーションを図ることができる。これらの構成によれば、操作者は、自身が移動することなくテレプレゼンスを実現することができる。 Also, the robot 20 may be provided with a speaker and a microphone not shown in FIGS. 1(b) and 2(b). Equipping the robot 20 with a speaker and a microphone enables the robot 20 to communicate with a person when there is a person around the robot 20 . Also, if the personal computer to which the controller 10 is connected has a speaker and a microphone as input/output devices, the operator is present around the robot 20 through the personal computer and the robot 20 described above. Able to communicate with people. According to these configurations, the operator can realize telepresence without moving himself/herself.

(コントローラ10及びロボット20の機能)
コントローラ10の制御部11としては、例えばマイコンのような簡易なコンピュータを採用することができる。図1の(a)に示すように、制御部11は、センサ情報受信部111と、遠隔制御情報生成部112と、遠隔制御情報送信部113と、フィードバック情報受信部114と、刺激付与部制御部115とを備えている。
(Functions of Controller 10 and Robot 20)
A simple computer such as a microcomputer can be employed as the control unit 11 of the controller 10 . As shown in (a) of FIG. 1, the control unit 11 includes a sensor information receiving unit 111, a remote control information generating unit 112, a remote control information transmitting unit 113, a feedback information receiving unit 114, and a stimulating unit control unit. 115.

また、ロボット20の制御部21としては、コンピュータを採用することができる。図1の(b)に示すように、制御部21は、人検知部211と、磁界検知部212と、フィードバック情報生成部213と、フィードバック情報送信部214と、遠隔制御情報受信部215と、駆動機構制御部216とを備えている。 A computer can be employed as the controller 21 of the robot 20 . As shown in FIG. 1B, the control unit 21 includes a human detection unit 211, a magnetic field detection unit 212, a feedback information generation unit 213, a feedback information transmission unit 214, a remote control information reception unit 215, and a drive mechanism control unit 216 .

以下、コントローラ10及びロボット20が実現する機能について、順を追って説明する。 Functions realized by the controller 10 and the robot 20 will be described in order below.

センサ情報受信部111は、第1のセンサ12から第1の姿勢情報を取得し、第2のセンサ13から第2の姿勢情報を取得する。 The sensor information receiving unit 111 acquires first orientation information from the first sensor 12 and acquires second orientation information from the second sensor 13 .

遠隔制御情報生成部112は、センサ情報受信部111から第1の姿勢情報及び第2の姿勢情報を取得し、第1の姿勢情報と第2の姿勢情報との差分からレバー17の操作ベクトルを特定する。遠隔制御情報生成部112は、特定したレバー17の操作ベクトルに応じて、ロボット20を遠隔制御するための情報である遠隔制御情報を生成する。例えば、遠隔制御情報生成部112は、特定したベクトルを、矢印A1,A2に平行な方向の成分(前後方向成分)と、矢印A3,A4に平行な方向の成分(回転方向成分)とに分解し、前後方向成分及び回転方向成分の各々に応じた遠隔制御情報を生成する。 The remote control information generation unit 112 acquires the first orientation information and the second orientation information from the sensor information reception unit 111, and calculates the operation vector of the lever 17 from the difference between the first orientation information and the second orientation information. Identify. The remote control information generator 112 generates remote control information, which is information for remotely controlling the robot 20 , according to the identified operation vector of the lever 17 . For example, the remote control information generating unit 112 decomposes the identified vector into a component in the direction parallel to the arrows A1 and A2 (front-rear direction component) and a component in the direction parallel to the arrows A3 and A4 (rotational direction component). and generates remote control information corresponding to each of the longitudinal direction component and the rotational direction component.

図2の(a)には、レバー17の操作ベクトルの例として、レバー17を上及び下の各々に操作した場合の操作ベクトルを、それぞれ、矢印A1及びA2として示している。また、レバー17を右及び左の各々に操作した場合の操作ベクトルを、それぞれ、矢印A3及びA4として示している。 In FIG. 2A, as an example of the operation vector of the lever 17, the operation vectors when the lever 17 is operated upward and downward are indicated by arrows A1 and A2, respectively. Also, the operation vectors when the lever 17 is operated to the right and to the left are indicated by arrows A3 and A4, respectively.

例えば、レバー17が上方向に操作された場合、遠隔制御情報生成部112は、矢印A1の方向を向き、且つ、レバー17が倒された角度に応じた大きさを有するベクトルを特定する。そのうえで、遠隔制御情報生成部112は、特定した当該ベクトルを、矢印A1,A2に平行な方向の成分である前後方向成分と、矢印A3,A4に平行な方向の成分である回転方向成分とに分解し、前後方向成分及び回転方向成分の各々に応じた遠隔制御情報を生成する。ただし、この場合、回転方向成分は、0である。 For example, when the lever 17 is operated upward, the remote control information generator 112 identifies a vector pointing in the direction of arrow A1 and having a magnitude corresponding to the angle at which the lever 17 is tilted. Then, remote control information generator 112 divides the specified vector into a front-rear direction component that is a component in the direction parallel to arrows A1 and A2, and a rotational direction component that is a component in the direction parallel to arrows A3 and A4. It decomposes and generates remote control information corresponding to each of the longitudinal direction component and the rotational direction component. However, in this case, the rotation direction component is 0.

また、レバー17が右上方向(矢印A1の方向と矢印A3の方向との間の方向)に操作された場合、遠隔制御情報生成部112は、矢印A1の方向と矢印A3の方向との間の方向を向き、且つ、レバー17が倒された角度に応じた大きさを有するベクトルを特定する。そのうえで、遠隔制御情報生成部112は、特定した当該ベクトルを、前後方向成分と、回転方向成分とに分解し、前後方向成分及び回転方向成分の各々に応じた遠隔制御情報を生成する。 Further, when the lever 17 is operated in the upper right direction (the direction between the direction of the arrow A1 and the direction of the arrow A3), the remote control information generation unit 112 generates a A vector pointing in a direction and having a magnitude corresponding to the angle at which the lever 17 is tilted is identified. Then, the remote control information generator 112 decomposes the specified vector into a longitudinal component and a rotational component, and generates remote control information corresponding to each of the longitudinal component and the rotational component.

遠隔制御情報送信部113は、パソコンを介して、遠隔制御情報生成部112が生成した遠隔制御情報をロボット20へ送信する。 The remote control information transmission unit 113 transmits the remote control information generated by the remote control information generation unit 112 to the robot 20 via the personal computer.

ロボット20の遠隔制御情報受信部215は、遠隔制御情報送信部113がパソコンを介して送信した遠隔制御情報を受信する。 The remote control information receiving section 215 of the robot 20 receives the remote control information transmitted by the remote control information transmitting section 113 via the personal computer.

駆動機構制御部216は、遠隔制御情報受信部215から遠隔制御情報を取得し、該遠隔制御情報に応じて駆動機構25を制御する。その結果、操作者がコントローラ10のレバー17を上方向に操作した場合(図2の(a)に示す矢印A1)、ロボット20は、前進し(図2の(b)に示す矢印B1)、操作者がコントローラ10のレバー17を下方向に操作した場合(図2の(a)に示す矢印A2)、ロボット20は、後退する(図2の(b)に示す矢印B2)。また、操作者がコントローラ10のレバー17を右方向に操作した場合(図2の(a)に示す矢印A3)、ロボット20は、右方向を向くように筐体26の軸回りに回転させ(図2の(b)に示す矢印B3)、操作者がコントローラ10のレバー17を左方向に操作した場合(図2の(a)に示す矢印A4)、ロボット20は、左方向を向くように筐体26の軸回りに回転させる(図2の(b)に示す矢印B4)。 The driving mechanism control section 216 acquires remote control information from the remote control information receiving section 215 and controls the driving mechanism 25 according to the remote control information. As a result, when the operator operates the lever 17 of the controller 10 upward (arrow A1 shown in (a) of FIG. 2), the robot 20 moves forward (arrow B1 shown in (b) of FIG. 2), When the operator operates the lever 17 of the controller 10 downward (arrow A2 shown in (a) of FIG. 2), the robot 20 retreats (arrow B2 shown in (b) of FIG. 2). Further, when the operator operates the lever 17 of the controller 10 in the right direction (arrow A3 shown in FIG. 2A), the robot 20 rotates around the axis of the housing 26 so as to face the right direction ( When the operator operates the lever 17 of the controller 10 to the left (arrow B3 shown in FIG. 2B) (arrow A4 shown in FIG. 2A), the robot 20 turns to the left. Rotate around the axis of the housing 26 (arrow B4 shown in (b) of FIG. 2).

また、操作者がレバー17を右上方向に操作した場合、駆動機構制御部216は、上述した前後方向成分に応じてロボット20を前進させるとともに、上述した回転方向成分に応じてロボット20が右方向を向くように筐体26の軸回りに回転させる。 Further, when the operator operates the lever 17 in the upper right direction, the driving mechanism control unit 216 moves the robot 20 forward according to the above-described front-rear direction component, and rotates the robot 20 rightward according to the above-described rotation direction component. is rotated around the axis of the housing 26 so as to face .

以上のように、ロボット20は、遠隔制御情報に応じて移動可能である。したがって、操作者は、コントローラ10を口腔P内で操作することによって、ロボット20を遠隔操作することができる。 As described above, the robot 20 can move according to remote control information. Therefore, the operator can remotely control the robot 20 by operating the controller 10 within the oral cavity PO .

人検知部211は、ロボット20の前方の画像を表す画像情報をカメラ221から取得する。人検知部211は、当該画像情報を解析することによって、ロボット20の前方の画像に人が含まれているか否かを判定する。 The human detection unit 211 acquires image information representing an image in front of the robot 20 from the camera 221 . The human detection unit 211 determines whether or not a person is included in the image in front of the robot 20 by analyzing the image information.

磁界検知部212は、磁界センサ23を構成する磁界センサ231~234の各々がそれぞれ生成する第1~第4の磁界情報を、磁界センサ231~234の各々から取得する。磁界検知部212は、第1~第4の磁界情報が表す磁界の強さが、予め定められた閾値磁界を超えているか否かを判定する。 The magnetic field detection unit 212 acquires first to fourth magnetic field information generated by each of the magnetic field sensors 231 to 234 forming the magnetic field sensor 23 from each of the magnetic field sensors 231 to 234 . The magnetic field detector 212 determines whether or not the strength of the magnetic field represented by the first to fourth magnetic field information exceeds a predetermined threshold magnetic field.

そのうで、磁界検知部212は、ロボット20の進路が通路から外れそうな場合に、通路から外れる方向がロボット20の何れの方向であるのかを表す方向特定情報をフィードバック情報生成部213へ供給する。 As such, when the robot 20 is about to deviate from the path, the magnetic field detection unit 212 supplies the feedback information generation unit 213 with direction specifying information indicating the direction of the robot 20 deviating from the path. do.

フィードバック情報生成部213は、ロボット20の前方の画像に人が含まれていると人検知部211が判定した場合、すなわち、人検知部211は、ロボット20の前方に人が存在する場合に、ロボット20の前方に人が存在する旨を表すフィードバック情報を生成する。 When the human detection unit 211 determines that a person is included in the image in front of the robot 20, that is, when a person exists in front of the robot 20, the feedback information generation unit 213 controls the human detection unit 211 to Feedback information indicating that a person exists in front of the robot 20 is generated.

また、フィードバック情報生成部213は、第1~第4の磁界情報のうち少なくとも何れか1つが表す磁界の強さが、予め定められた閾値磁界を超えていると磁界検知部212が判定した場合、ロボット20が上述した通路から外れようとしている方向を特定し、当該方向を示すフィードバック情報を生成する。 Further, when the magnetic field detection unit 212 determines that the strength of the magnetic field represented by at least one of the first to fourth magnetic field information exceeds a predetermined threshold magnetic field, the feedback information generation unit 213 , identifies the direction in which the robot 20 is going to deviate from the path described above, and generates feedback information indicative of that direction.

例えば、第1,第2の磁界情報が表す磁界の強さ上述した閾値磁界を上回っている場合、フィードバック情報生成部213は、ロボット20が上述した通路から外れようとしている方向がロボット20の左方向であると特定し、特定した左方向を示すフィードバック情報を生成する。 For example, if the strength of the magnetic field represented by the first and second magnetic field information exceeds the above-described threshold magnetic field, the feedback information generation unit 213 determines that the direction in which the robot 20 is about to leave the passage is to the left of the robot 20. direction and generate feedback information indicating the identified left direction.

また、フィードバック情報生成部213は、レーザ測域センサ24が生成する構造物情報を参照し、ロボット20の周囲に構造物が存在する場合には、構造物が位置する方向に対応した方向を示すフィードバック情報を生成する。また、このフィードバック情報には、構造物が位置する方向に対応した方向のバイブレータ(14a~14fのうち少なくとも何れか)の振動強度であって、構造物までの距離に応じて定められた振動強度を表す強度情報が含まれていてもよい。 Further, the feedback information generation unit 213 refers to the structure information generated by the laser range sensor 24, and if there is a structure around the robot 20, indicates the direction corresponding to the direction in which the structure is located. Generate feedback information. Further, the feedback information includes the vibration intensity of the vibrator (at least one of 14a to 14f) in the direction corresponding to the direction in which the structure is located, and the vibration intensity determined according to the distance to the structure. may include intensity information representing

フィードバック情報送信部214は、フィードバック情報生成部213が生成したフィードバック情報をパソコンへ送信する。 The feedback information transmission section 214 transmits the feedback information generated by the feedback information generation section 213 to the personal computer.

コントローラ10のフィードバック情報受信部114は、パソコンを介して、フィードバック情報生成部213が生成したフィードバック情報を取得し、刺激付与部制御部115へ供給する。 The feedback information receiving section 114 of the controller 10 acquires the feedback information generated by the feedback information generating section 213 via the personal computer, and supplies the feedback information to the stimulation applying section control section 115 .

刺激付与部制御部115は、フィードバック情報受信部114から取得したフィードバック情報に応じて、バイブレータ14a~14fのうち少なくとも何れか一方を振動させる。すなわち、刺激付与部制御部115は、フィードバック情報に応じた諸各区刺激を操作者の口腔P及び顔面の少なくとも何れか一方に与える。 The stimulus applying unit control unit 115 vibrates at least one of the vibrators 14a to 14f according to the feedback information acquired from the feedback information receiving unit 114. FIG. That is, the stimulus applying unit control unit 115 gives various segmental stimuli according to the feedback information to at least one of the oral cavity PO and the face of the operator.

例えば、フィードバック情報がロボット20の前方に人が存在する旨を表すフィードバック情報である場合、刺激付与部制御部115は、バイブレータ14a~14fのうち前方に対応したバイブレータ14b,14eを振動させる。これにより、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20の前方に人が存在していることを知ることができる。 For example, if the feedback information is feedback information indicating that a person exists in front of the robot 20, the stimulation unit control unit 115 vibrates the vibrators 14b and 14e corresponding to the front among the vibrators 14a to 14f. Thereby, the operator can know that a person is present in front of the robot 20 based on the information fed back from the robot 20 .

また、例えば、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、刺激付与部制御部115は、バイブレータ14a~14fのうち、特定された方向に対応付けられたバイブレータを振動させる。例えば、フィードバック情報が特定している方向が左側である場合、刺激付与部制御部115は、口腔Pの左側に配置されたバイブレータ14c,14fを振動させる。これにより、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路から左側へ外れようとしていることを知ることができる。 Further, for example, when the feedback information is feedback information specifying the direction in which the robot 20 is about to leave the passage, the stimulus applying unit control unit 115 selects one of the vibrators 14a to 14f to Vibrate the vibrator associated with . For example, when the direction specified by the feedback information is the left side, the stimulation unit control unit 115 vibrates the vibrators 14c and 14f arranged on the left side of the oral cavity PO . Accordingly, the operator can know, based on the information fed back from the robot 20, that the robot 20 is about to deviate to the left from the above passage.

また、例えば、フィードバック情報が、構造物情報を含んでいる場合、刺激付与部制御部115は、バイブレータ14a~14fのうち、特定された方向に対応付けられたバイブレータを振動させる。構造物情報に強度情報が更に含まれている場合、刺激付与部制御部115は、強度情報が表す振動強度で特定された方向に対応付けられたバイブレータを振動させる。これにより、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20の周囲に存在する壁の方向及び壁までの距離を知ることができる。 Further, for example, when the feedback information includes structure information, the stimulus applying unit control unit 115 vibrates the vibrator associated with the specified direction among the vibrators 14a to 14f. When the structure information further includes intensity information, the stimulus applying unit control unit 115 vibrates the vibrator associated with the direction specified by the vibration intensity represented by the intensity information. Thereby, the operator can know the direction of the wall existing around the robot 20 and the distance to the wall based on the information fed back from the robot 20 .

なお、(1)ロボット20の周囲に人が存在する旨をフィードバックする場合と、(2)ロボット20が通路から外れようとしている旨をフィードバックする場合と、(3)ロボット20の周囲に存在する壁の方向及び壁までの距離をフィードバックする場合とを操作者が区別できるようにするために、(1)~(3)の各場合における振動は、それぞれ、振動の態様(リズムや振動強度など)が異なっていることが好ましい。 In addition, (1) when feedback is given that a person exists around the robot 20 , (2) when feedback is given that the robot 20 is about to leave the passage, and (3) when a person is present around the robot 20 . In order to allow the operator to distinguish between the case of feedback of the direction of the wall and the distance to the wall, the vibrations in each of the cases (1) to (3) are respectively controlled by the mode of vibration (rhythm, vibration intensity, etc.). ) are preferably different.

(ロボット20が備えているセンサの例)
本実施形態では、ロボット20が備えているセンサの例として、カメラ221、磁界センサ23、及びレーザ測域センサ24を用いた。しかし、ロボット20が備えているセンサは、これらの限定されるものではない。他のセンサの例としては、人及び空間を検知するための赤外カメラ、人を検知するための熱カメラ、及び、特定の装置(例えばロボットを充電するためのロボットステーション)や特定の人(例えば介護施設の職員)を検知するためのビーコンユニットが挙げられる。
(Example of sensors provided in the robot 20)
In this embodiment, the camera 221, the magnetic field sensor 23, and the laser range sensor 24 are used as examples of the sensors that the robot 20 has. However, the sensors provided on the robot 20 are not limited to these. Examples of other sensors include infrared cameras for detecting people and space, thermal cameras for detecting people, and specific devices (e.g. robot stations for charging robots) and specific people (e.g. robot stations). For example, a beacon unit for detecting nursing home personnel).

フィードバック情報生成部213は、これらのセンサが生成した情報に応じて、予め定められたフィードバック情報を生成するように構成されていてもよい。 The feedback information generator 213 may be configured to generate predetermined feedback information according to the information generated by these sensors.

〔ロボット20の変形例〕
本実施形態において、ロボット20は、操作者がコントローラ10を操作することによって、操作者の意図に基づき操作されているものとして説明した。しかし、ロボット20においては、予め定められた目的地へ向かって自律走行可能なように駆動機構25を制御するように、駆動機構制御部216が構成されていてもよい。この場合、駆動機構制御部216は、ロボット20が自律走行している場合に、(1)人検知部211が生成するロボット20の前方の画像に人が含まれているか否かを表す情報、(2)磁界検知部212が生成する方向特定情報、及び、(3)レーザ測域センサ24が生成する構造物情報を参照して(図1の(b)に示した二点鎖線参照)、目的地へ向かうための経路を再設定してもよい。
[Modified example of robot 20]
In the present embodiment, the robot 20 is operated based on the operator's intention by operating the controller 10 by the operator. However, in the robot 20, the driving mechanism control section 216 may be configured to control the driving mechanism 25 so that the robot can autonomously travel toward a predetermined destination. In this case, when the robot 20 is traveling autonomously, the drive mechanism control unit 216 provides (1) information indicating whether or not a person is included in the image in front of the robot 20 generated by the human detection unit 211; With reference to (2) the direction specifying information generated by the magnetic field detection unit 212 and (3) the structure information generated by the laser range sensor 24 (see the two-dot chain line shown in (b) of FIG. 1), You may reset the route for heading to the destination.

また、ロボット20が自律走行している場合に、フィードバック情報生成部213は、上述した(1)、(2)、及び(3)の情報を参照してフィードバック情報を生成し、フィードバック情報送信部214を介して該フィードバック情報をパソコンへ送信してもよい。 Further, when the robot 20 is autonomously traveling, the feedback information generation unit 213 generates feedback information with reference to the information (1), (2), and (3) described above, and the feedback information transmission unit 214, the feedback information may be sent to the personal computer.

例えば、ロボット20が自律走行している場合に前方に人を検知したとする。その場合、フィードバック情報生成部213は、ロボット20の前方の画像に人が含まれている旨を示すフィードバック情報を生成する。コントローラ10の刺激付与部制御部115は、そのフィードバック情報に応じてバイブレータ14a~14fのうち前方に対応したバイブレータ14b,14eを振動させることにより、操作者に人の存在をフィードバックする。 For example, assume that a person is detected ahead while the robot 20 is traveling autonomously. In that case, the feedback information generation unit 213 generates feedback information indicating that the image in front of the robot 20 includes a person. The stimulus applying unit control unit 115 of the controller 10 feeds back the presence of a person to the operator by vibrating the vibrators 14b and 14e corresponding to the front among the vibrators 14a to 14f according to the feedback information.

ここで、操作者がコントローラ10を何も操作しない場合、駆動機構制御部216は、予め設定されていた経路の通り、ロボット20を進めるように駆動機構25を制御する。 Here, when the operator does not operate the controller 10 at all, the driving mechanism control section 216 controls the driving mechanism 25 so that the robot 20 advances along the preset route.

一方、ここで、操作者がコントローラ10を操作することによって、ロボット20の前方にいる人にアプローチしたいという意思を示した場合(すなわち、操作者が一時的な目的地を設定した場合)、ロボット20は、コントローラ10からの信号に応じて、予め設定されていた経路を一度キャンセルし、人にアプローチする。すなわち、駆動機構制御部216は、ロボット20を人のそばへ移動させ、その場へ停止させるように駆動機構25を制御する。人にアプローチしたいという意思を示すためのコントローラ10の操作は、限定されるものではなく適宜定めることができるが、例えば、圧力センサ15のダブルクリックをこの操作に割り当てることもできる。 On the other hand, here, when the operator operates the controller 10 to indicate a desire to approach a person in front of the robot 20 (that is, when the operator sets a temporary destination), the robot In response to a signal from the controller 10, 20 once cancels the preset route and approaches the person. That is, the driving mechanism control section 216 controls the driving mechanism 25 so as to move the robot 20 to the side of the person and stop it there. The operation of the controller 10 for indicating the intention to approach a person is not limited and can be determined as appropriate. For example, double-clicking the pressure sensor 15 can be assigned to this operation.

ロボット20がこのように構成されていることにより、操作者が常にロボット20を操作している必要がなくなるため、操作者の負担を軽減できる。そのうえで、操作者は、ロボット20からのフィードバックに基づいて、自身の意思を介入させることができるため、受け身ではなくより積極的な気持ちでテレプレゼンスを利用することができる。 Since the robot 20 is configured in this way, the operator does not need to operate the robot 20 all the time, so the burden on the operator can be reduced. In addition, the operator can make his/her intention intervene based on the feedback from the robot 20, so that he/she can use the telepresence more positively than passively.

また、ロボット20が自律走行可能に構成されている場合であっても、上述したように、操作者が自分の意思に基づいてロボット20を直接操作することもできる。 Further, even when the robot 20 is configured to be able to travel autonomously, the operator can directly operate the robot 20 based on his/her will as described above.

なお、ロボット20において、操作者がロボット20の経路にどの程度介入できるかは、変更可能に構成されていてもよい。この介入度合いの変更は、介護施設の職員が行うように構成されていてもよいし、操作者が行うように構成されていてもよい。 The robot 20 may be configured so that the degree to which the operator can intervene in the path of the robot 20 can be changed. This change in the degree of intervention may be configured to be performed by staff members of the care facility, or may be configured to be performed by the operator.

〔コントローラ10の変形例〕
本発明の変形例であり、図1及び図2に示したコントローラ10の変形例であるコントローラ10Aについて、図3を参照して説明する。図3は、口腔Pにより保持された状態のコントローラ10Aの斜視図である。
[Modification of controller 10]
A controller 10A, which is a modification of the present invention and is a modification of the controller 10 shown in FIGS. 1 and 2, will be described with reference to FIG. FIG. 3 is a perspective view of the controller 10A held by the oral cavity PO .

コントローラ10Aは、コントローラ10をベースにして、コントローラ10が備えているバイブレータ14a~14fを液体噴出器14Aに置き換えることによって得られる。したがって、本変形例においては、液体噴出器14Aについて説明する。なお、説明の便宜上、コントローラ10Aが備えている部材のうち、コントローラ10が備えている部材と同じ部材については、同じ符号を付記し、その説明を繰り返さない。 The controller 10A is obtained by replacing the vibrators 14a to 14f included in the controller 10 with the liquid ejector 14A based on the controller 10. FIG. Therefore, in this modified example, the liquid ejector 14A will be described. For convenience of explanation, among the members provided in controller 10A, members that are the same as members provided in controller 10 are denoted by the same reference numerals, and description thereof will not be repeated.

液体噴出器14Aは、特許請求の範囲に記載の刺激付与部の一例であり、フィードバック情報に応じた味覚刺激を操作者の口腔Pに与えるように構成されている。 The liquid ejector 14A is an example of the stimulus imparting unit described in the claims, and is configured to impart a taste stimulus to the oral cavity PO of the operator according to feedback information.

図3に示すように、液体噴出器14Aは、ノズル141と、バルブ142と、リザーバ143とを備えている。 As shown in FIG. 3, the liquid ejector 14A has a nozzle 141, a valve 142 and a reservoir 143. As shown in FIG.

ノズル141は、一方の端部から液体である味覚刺激物を供給され、他方の端部である噴出口から味覚刺激物を噴出させる。ノズル141は、噴出口を口腔P内に配置するように設計されている。 The nozzle 141 is supplied with a liquid taste stimulant from one end and ejects the taste stimulant from the other end, which is a jetting port. Nozzle 141 is designed to position the jet within the oral cavity PO .

バルブ142は、後述する刺激付与部制御部115によりその開閉を制御されている。バルブ142が開かれた場合、リザーバ143からノズル141へ味覚刺激物が供給され、ノズル141は、味覚刺激物を噴出させる。バルブ142が閉じられた場合、リザーバ143からノズル141への味覚刺激物の供給が遮断されるので、ノズル141は、味覚刺激物を噴出させない。 The opening and closing of the valve 142 is controlled by the stimulation applying unit control unit 115, which will be described later. When valve 142 is opened, tastant stimulant is supplied from reservoir 143 to nozzle 141, and nozzle 141 ejects the tastant stimulant. When the valve 142 is closed, the supply of taste stimulant from the reservoir 143 to the nozzle 141 is cut off, so that the nozzle 141 does not eject the taste stimulant.

リザーバ143は、味覚刺激物を貯蔵している貯蔵庫である。上述したように、味覚刺激物は、バルブ142を介してノズル141へ供給される。 Reservoir 143 is a reservoir that stores taste stimulants. As mentioned above, the taste stimulant is supplied to nozzle 141 through valve 142 .

リザーバ143は、それぞれ味が異なる複数の味覚刺激物を貯蔵していてもよい。例えば、リザーバ143は、味が甘い第1の味覚刺激物と、味が苦い第2の味覚刺激物とを貯蔵していてもよい。 Reservoir 143 may store multiple taste stimulants, each with a different taste. For example, reservoir 143 may store a first sweet-tasting tastant and a second bitter-tasting tastant.

刺激付与部制御部115は、フィードバック情報に応じてバルブ142の開閉を制御する。また、リザーバ143がそれぞれ味の異なる複数の味覚刺激物を貯蔵している場合、例えば、リザーバ143が第1の味覚刺激物と第2の味覚刺激物とを貯蔵している場合、刺激付与部制御部115は、フィードバック情報に応じて、ノズル141へ供給する味覚刺激物を適宜切り替える。 The stimulation unit control unit 115 controls opening and closing of the valve 142 according to the feedback information. Further, when the reservoir 143 stores a plurality of taste stimulants with different tastes, for example, when the reservoir 143 stores a first taste stimulant and a second taste stimulant, the stimulus imparting unit The control unit 115 appropriately switches the taste stimulant to be supplied to the nozzle 141 according to the feedback information.

例えば、フィードバック情報がロボット20の前方に人が存在する旨を表すフィードバック情報である場合、刺激付与部制御部115は、味が甘い第1の味覚刺激物を選択したうえで、バルブ142を開くことによって、口腔P内に甘い味覚刺激を与える。口腔P内に甘い味覚刺激を与えられた操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20の前方に人が存在していることを知ることができる。 For example, if the feedback information is feedback information indicating that a person is present in front of the robot 20, the stimulus applying unit control unit 115 selects the sweet first taste stimulus and then opens the valve 142. This gives a sweet taste stimulus to the oral cavity PO . The operator who is given a sweet taste stimulus in the oral cavity PO can know that a person is present in front of the robot 20 based on the information fed back from the robot 20 .

また、例えば、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、刺激付与部制御部115は、味が苦い第2の味覚刺激物を選択したうえで、バルブ142を開くことによって、口腔P内に苦い味覚刺激を与える。口腔P内に苦い味覚刺激を与えられた操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路からいずれかの方向へ外れようとしていることを知ることができる。 Further, for example, when the feedback information specifies the direction in which the robot 20 is going to leave the passage, the stimulus applying unit control unit 115 selects the second taste stimulus with a bitter taste. Then, by opening the valve 142, a bitter taste stimulus is given to the oral cavity PO . An operator who is given a bitter taste stimulus in the oral cavity PO can know that the robot 20 is about to deviate in any direction from the above passage based on the information fed back from the robot 20.

なお、本変形例において、刺激付与部の一例として液体を噴出する液体噴出器14Aを用いて説明した。しかし、刺激付与部は、粉体を噴出する粉体噴出器であってもよいし、気体を噴出する気体噴出器であってもよい。 In addition, in this modified example, the liquid ejector 14A that ejects the liquid has been used as an example of the stimulation applying unit. However, the stimulus applying unit may be a powder ejector that ejects powder or a gas ejector that ejects gas.

換言すれば、リザーバ143は、液体である味覚刺激物の代わりに粉体又は気体の味覚刺激物を貯蔵するように構成されていてもよい。 In other words, reservoir 143 may be configured to store a powder or gaseous taste stimulant instead of a liquid taste stimulant.

また、本変形例において、ノズル141は、噴出口を口腔P内に配置するように設計されている。しかし、ノズル141は、噴出口を鼻腔内に配置するように設計されていてもよい。この場合、リザーバ143は、味覚刺激を与える味覚刺激物の代わりに、臭覚刺激を与える臭覚刺激物を貯蔵するように構成されていることが好ましい。 Moreover, in this modification, the nozzle 141 is designed so that the ejection port is arranged in the oral cavity PO . However, nozzle 141 may be designed to position the spout intranasally. In this case, reservoir 143 is preferably configured to store olfactory stimulants that provide olfactory stimuli instead of gustatory stimulants that provide gustatory stimuli.

以上のように、コントローラ10Aが備えている刺激付与部は、フィードバック情報に応じた味覚刺激又は臭覚刺激を操作者の口腔P又は鼻腔に与える、紛体噴出器、液体噴出器、又は気体噴出器を有していればよい。 As described above, the stimulation imparting unit included in the controller 10A is a powder ejector, a liquid ejector, or a gas ejector that imparts taste stimulation or olfactory stimulation to the oral cavity PO or nasal cavity of the operator according to the feedback information. should have

〔対象物の変形例〕
コントローラ10により遠隔制御される対象物は、ロボット20に限定されるものではなく、電動車いすであってもよいし、パソコンを用いたシミュレータにより仮想的に可視化された移動体であってもよい。
[Modified example of object]
The object remotely controlled by the controller 10 is not limited to the robot 20, and may be an electric wheelchair or a moving object that is virtually visualized by a simulator using a personal computer.

対象物が電動車いすである場合、操作者は、口腔P内でコントローラ10を操作することのよって、電動車いすを制御することができる。 When the object is an electric wheelchair, the operator can control the electric wheelchair by operating the controller 10 within the oral cavity PO .

更に、コントローラ10は、ロボット20が生成したフィードバック情報に応じた刺激を、刺激付与部を用いて操作者の口腔P及び顔面の少なくとも何れか一方に与えることができる。したがって、操作者は、口腔P及び顔面の少なくとも何れか一方を用いてロボット20からフィードバックを受けることができる。たとえば、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路から左側へ外れようとしていることを知ることができる。 Furthermore, the controller 10 can use the stimulus applying unit to apply a stimulus according to the feedback information generated by the robot 20 to at least one of the oral cavity PO and the face of the operator. Therefore, the operator can receive feedback from the robot 20 using at least one of the oral cavity PO and the face. For example, if the feedback information is feedback information specifying the direction in which the robot 20 is going to deviate from the path described above, the operator can guide the robot 20 along the path described above based on the feedback information from the robot 20 . You can know that you are going to deviate to the left from .

対象物がシミュレータによって仮想的に可視化された移動体である場合、操作者は、このシミュレータを用いてコントローラ10の扱いを習熟することができる。 If the target object is a moving object that is virtually visualized by a simulator, the operator can use this simulator to learn how to handle the controller 10 .

この場合であっても同様に、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路から外れようとしていることを知ることができる。 Even in this case, if the feedback information specifies the direction in which the robot 20 is going to deviate from the above-described path, the operator can make a decision based on the information fed back from the robot 20. , the robot 20 is about to deviate from the path described above.

〔実施例群〕
第1~第4の操作者が第1の実施形態に係るコントローラ10を用いてロボット20を遠隔操作した場合の実施例群について、図4~図6を参照して説明する。
[Example group]
A group of examples in which the first to fourth operators remotely operate the robot 20 using the controller 10 according to the first embodiment will be described with reference to FIGS. 4 to 6. FIG.

図4は、操作者がコントローラ10を用いてロボットを操作している様子を示す斜視図である。図5の(a),(c),(e)の各々は、それぞれ、第1~第3の操作者がキーボードを用いてロボットを操作した軌跡を示す平面図である。図5の(b),(d),(f)の各々は、それぞれ、第1~第3の操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作した軌跡を示す平面図である。図6の(a)は、第4の操作者がゲーム用のコントローラを用いてロボットを操作した軌跡を示す平面図である。図6の(b)は、第4の操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作した軌跡を示す平面図である。なお、第1~第3の操作者は、健常者であり、第4の操作者は、筋萎縮性側索硬化症(ALS)の患者である。 FIG. 4 is a perspective view showing how an operator operates the robot using the controller 10. FIG. Each of (a), (c), and (e) of FIG. 5 is a plan view showing the trajectories of the first to third operators using the keyboard to operate the robot. Each of (b), (d), and (f) in FIG. 5 shows the trajectory of the first to third operators operating the robot using the controller according to the first embodiment of the present invention. It is a top view. FIG. 6(a) is a plan view showing a trajectory of a robot operated by a fourth operator using a game controller. FIG. 6(b) is a plan view showing a trajectory of the robot operated by the fourth operator using the controller according to the first embodiment of the present invention. The first to third operators are healthy subjects, and the fourth operator is a patient with amyotrophic lateral sclerosis (ALS).

図4に示すように、本実施例群において、ロボット20が移動する地面には、2本の導線W1,W2を敷設することによって、クランク形状の通路Paが設けられている。各操作者は、口腔P内でコントローラ10を操作することによって、ロボット20が通路Paの入口から出口まで通過するように、ロボット20を遠隔操作する。 As shown in FIG. 4, in this embodiment group, a crank-shaped passage Pa is provided on the ground on which the robot 20 moves by laying two conducting wires W1 and W2. Each operator remotely controls the robot 20 so that the robot 20 passes from the entrance to the exit of the passage Pa by operating the controller 10 within the oral cavity PO .

なお、第1の実施形態において上述したように、コントローラ10は、パソコンPCに対して無線接続されている。また、ロボット20とパソコンPCとも、互いに無線接続されている。 Note that the controller 10 is wirelessly connected to the personal computer PC as described above in the first embodiment. Also, the robot 20 and the personal computer PC are wirelessly connected to each other.

図5の(a)~(f)によれば、第1の操作者の1回目のトライにおいて、ロボット20は、通路Paから大きく逸脱した(図5の(b)参照)。しかし、第1の操作者の2回目以降のトライ、及び、第2~第3の操作者の全トライにおいて、ロボット20は、通路Paから大きく逸脱することもなく通路Paを通過した。すなわち、コントローラ10を用いた場合であっても、キーボードを用いる場合と同様に、操作者は、ロボット20を遠隔操作可能なことが分かった。 According to FIGS. 5(a) to 5(f), in the first attempt by the first operator, the robot 20 largely deviates from the path Pa (see FIG. 5(b)). However, in the first operator's second and subsequent tries, and in all of the second and third operators' attempts, the robot 20 passed through the passage Pa without significantly deviating from the passage Pa. That is, it has been found that even when the controller 10 is used, the operator can remotely control the robot 20 in the same way as when using the keyboard.

これは、コントローラ10を用いることにより、ロボット20からのフィードバック情報に応じたフィードバックを操作者が受けることができたためと考えられる。 This is probably because the operator was able to receive feedback according to the feedback information from the robot 20 by using the controller 10 .

また、トライの回数を重ね操作者がコントローラ10の操作に慣れるにしたがって、キーボードを用いた場合のロボット20の軌跡と、コントローラ10を用いた場合のロボット20の軌跡との間に有意な差はなくなった。 As the number of tries increases and the operator becomes accustomed to operating the controller 10, there is no significant difference between the trajectory of the robot 20 when using the keyboard and the trajectory of the robot 20 when using the controller 10. lost.

また、第1~第3の操作者の各々について、それぞれ、3回のトライについて、通路Paを通過する移動時間を測定した。キーボードを用いた場合の移動時間と、コントローラ10を用いた場合の移動時間とについても、トライの回数を重ね操作者がコントローラ10の操作に慣れるにしたがって、有意な差はなくなった。 In addition, for each of the first to third operators, the movement time for passing through the path Pa was measured for three tries. There is no significant difference between the movement time when using the keyboard and the movement time when using the controller 10 as the number of trials increases and the operator becomes accustomed to the operation of the controller 10 .

図6の(a)及び(b)によれば、ALSの患者である第4の操作者がロボット20を遠隔操作した場合においても、ゲーム用のコントローラを用いた場合のロボット20の軌跡と、コントローラ10を用いた場合のロボット20の軌跡との間に有意な差はなくなった。 According to FIGS. 6A and 6B, even when the fourth operator who is an ALS patient remotely controls the robot 20, the trajectory of the robot 20 when using a game controller, There is no significant difference from the trajectory of the robot 20 when the controller 10 is used.

以上のように、操作者が健常者である場合であっても、ALSの患者である場合であっても、コントローラ10を口腔P内で操作することによって、キーボード又はゲーム用のコントローラを手で操作する場合と同程度の確かさでロボット20を遠隔操作できることが分かった。 As described above, whether the operator is a healthy person or an ALS patient, the keyboard or game controller can be operated by operating the controller 10 in the oral cavity PO . It has been found that the robot 20 can be remotely controlled with the same degree of certainty as when it is controlled by the remote control.

〔まとめ〕
本発明の態様1に係るコントローラは、対象物(ロボット20、電動車いす、及びパソコンを用いたシミュレータにより仮想的に可視化された移動体)を遠隔制御するコントローラ10であって、操作者が口腔P内で操作するコントローラ10において、上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔P及び顔面の少なくとも何れか一方に与える刺激付与部(バイブレータ14a~14f及び液体噴出器14A)を備えている。
〔summary〕
The controller according to aspect 1 of the present invention is a controller 10 that remotely controls a target object (a robot 20, an electric wheelchair, and a moving object that is virtually visualized by a simulator using a personal computer), and the operator performs oral cavity P In the controller 10 operated within O , a stimulus applying unit (vibrators 14a to 14f and liquid ejection 14A).

上記の構成によれば、操作者は、口腔Pを用いてロボット20に代表される移動体を遠隔操作することができる。口腔Pを用いて例えばロボット20を遠隔操作することには、上述したようなメリットがある。 According to the above configuration, the operator can remotely operate a moving object represented by the robot 20 using the oral cavity PO . Using the oral cavity PO to remotely control the robot 20, for example, has the merits described above.

更に、コントローラ10は、ロボット20が生成したフィードバック情報に応じた刺激を、刺激付与部を用いて操作者の口腔P及び顔面の少なくとも何れか一方に与えることができる。したがって、操作者は、口腔P及び顔面の少なくとも何れか一方を用いてロボット20からフィードバックを受けることができる。 Furthermore, the controller 10 can use the stimulus applying unit to apply a stimulus according to the feedback information generated by the robot 20 to at least one of the oral cavity PO and the face of the operator. Therefore, the operator can receive feedback from the robot 20 using at least one of the oral cavity PO and the face.

以上のように、コントローラ10を用いることによって、操作者は、口腔Pを用いてロボット20を遠隔操作することができ、且つ、口腔P及び顔面の少なくとも何れか一方を用いてロボット20からフィードバックを受けることができる。したがって、コントローラ10は、自身から離れた場所に存在するロボット20の状態を操作者が把握することができる。 As described above, by using the controller 10, the operator can remotely control the robot 20 using the oral cavity PO , and can perform remote control from the robot 20 using at least one of the oral cavity PO and the face. You can get feedback. Therefore, the controller 10 allows the operator to grasp the state of the robot 20 located at a remote location.

本発明の態様2に係るコントローラにおいて、上記刺激付与部は、上記情報に応じた触覚刺激を上記操作者の口腔及び顔面の少なくとも何れか一方に与えるバイブレータを有している、ことが好ましい。 In the controller according to aspect 2 of the present invention, it is preferable that the stimulus applying section has a vibrator that applies a tactile sense stimulus corresponding to the information to at least one of the oral cavity and the face of the operator.

上記の構成によれば、操作者は、口腔及び顔面の少なくとも何れか一方に伝わる振動を介して、ロボット20からのフィードバックを受けることができる。したがって、口腔及び顔面の少なくとも何れか一方の触覚が機能していれば、操作者は、ロボット20からのフィードバックを受けることができる。 According to the above configuration, the operator can receive feedback from the robot 20 via vibration transmitted to at least one of the oral cavity and the face. Therefore, the operator can receive feedback from the robot 20 as long as the tactile sense of at least one of the oral cavity and the face is functioning.

また、刺激付与部として複数のバイブレータを採用し、各バイブレータを所定の空間内(例えば口腔P内)に配置するように構成した場合には、例えば構造物の方向及び構造物までの距離に関する情報を操作者にフィードバック(空間投射)することができる。 In addition, when a plurality of vibrators are adopted as the stimulus applying unit and each vibrator is arranged in a predetermined space (for example, in the oral cavity PO ), for example, the direction of the structure and the distance to the structure Information can be fed back (spatial projection) to the operator.

本発明の態様3に係るコントローラにおいて、上記刺激付与部は、上記情報に応じた味覚刺激又は臭覚刺激を上記操作者の口腔又は鼻腔に与える、紛体噴出器、液体噴出器、又は気体噴出器を有していてもよい。 In the controller according to aspect 3 of the present invention, the stimulus imparting unit includes a powder ejector, a liquid ejector, or a gas ejector that imparts a taste stimulus or an olfactory stimulus corresponding to the information to the oral cavity or nasal cavity of the operator. may have.

上記の構成によれば、操作者は、味覚刺激又は臭覚刺激を介して、ロボット20からのフィードバックを受けることができる。したがって、味覚又は臭覚が機能していれば、操作者は、ロボット20からのフィードバックを受けることができる。 According to the above configuration, the operator can receive feedback from the robot 20 via gustatory stimulation or olfactory stimulation. Therefore, the operator can receive feedback from the robot 20 if the sense of taste or smell is functioning.

本発明の態様4に係るコントローラにおいて、上記対象物は、走行可能なロボット20であり、上記情報は、ロボット20の走行に障害があることを示す情報である、ことが好ましい。 In the controller according to aspect 4 of the present invention, it is preferable that the object is the robot 20 that can run, and the information is information indicating that the robot 20 has an obstacle in its running.

上記の構成によれば、操作者は、ロボット20の走行に障害がある旨の情報を、ロボット20からのフィードバックとして得ることができる。 According to the above configuration, the operator can obtain information from the robot 20 as feedback to the effect that there is an obstacle in the running of the robot 20 .

本発明の態様5に係るコントローラにおいて、上記対象物は、走行可能なロボット20であり、上記情報は、ロボット20の周囲に人が存在することを示す情報である、ことが好ましい。 In the controller according to aspect 5 of the present invention, it is preferable that the object is robot 20 capable of running, and the information is information indicating that a person exists around robot 20 .

上記の構成によれば、操作者は、ロボット20の周囲に人が存在する旨の情報を、ロボット20からのフィードバックとして得ることができる。 According to the above configuration, the operator can obtain information indicating that there are people around the robot 20 as feedback from the robot 20 .

〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

10 コントローラ
11 制御部
12,13 第1,第2のセンサ
14a~14f バイブレータ(刺激付与部)
14A 液体噴出器(刺激付与部)
15 圧力センサ
20 ロボット(対象物)
操作者の口腔
10 Controller 11 Control Unit 12, 13 First and Second Sensors 14a to 14f Vibrators (Stimulus Giving Unit)
14A liquid ejector (stimulation applying part)
15 pressure sensor 20 robot (object)
Oral cavity of PO operator

Claims (2)

対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、
上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔及び顔面の少なくとも何れか一方に与える刺激付与部を備え、
上記刺激付与部は、上記情報に応じた味覚刺激又は臭覚刺激を上記操作者の口腔又は鼻腔に与える、紛体噴出器、液体噴出器、又は気体噴出器を有している、
ことを特徴とするコントローラ。
A controller that remotely controls an object and is operated by an operator in the oral cavity,
a stimulus imparting unit that imparts a stimulus to at least one of the oral cavity and the face of the operator according to the information fed back from the object;
The stimulation imparting unit has a powder ejector, a liquid ejector, or a gas ejector that imparts taste stimulation or olfactory stimulation according to the information to the oral cavity or nasal cavity of the operator.
A controller characterized by:
対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、
上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔及び顔面の少なくとも何れか一方に与える刺激付与部を備え、
上記対象物は、走行可能なロボットであり、
上記情報は、上記ロボットの周囲に人が存在することを示す情報である、
ことを特徴とするコントローラ。
A controller that remotely controls an object and is operated by an operator in the oral cavity,
a stimulus imparting unit that imparts a stimulus to at least one of the oral cavity and the face of the operator according to the information fed back from the object;
The object is a mobile robot,
The information is information indicating that a person exists around the robot,
A controller characterized by:
JP2019013591A 2019-01-29 2019-01-29 controller Active JP7291340B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019013591A JP7291340B2 (en) 2019-01-29 2019-01-29 controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013591A JP7291340B2 (en) 2019-01-29 2019-01-29 controller

Publications (2)

Publication Number Publication Date
JP2020123070A JP2020123070A (en) 2020-08-13
JP7291340B2 true JP7291340B2 (en) 2023-06-15

Family

ID=71992777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013591A Active JP7291340B2 (en) 2019-01-29 2019-01-29 controller

Country Status (1)

Country Link
JP (1) JP7291340B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI801128B (en) 2022-02-09 2023-05-01 金寶電子工業股份有限公司 Feedback device for sense of taste, and feedback system and feedback method for using the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213190A (en) 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Communication robot improvement system
US20100204624A1 (en) 2007-07-31 2010-08-12 Universite Joseph Fourier-Grenoble 1 Endo-buccal device for tactile stimulation and actuation
JP2010248703A (en) 2009-04-10 2010-11-04 Ntt Docomo Inc Control system, control method, operation control unit, and working device
US20160154468A1 (en) 2012-03-19 2016-06-02 Dustin Ryan Kimmel Intraoral User Interface
JP2017146400A (en) 2016-02-16 2017-08-24 稜威夫 永島 Bite-in tool and its use method
JP2018183608A (en) 2012-08-02 2018-11-22 イマージョン コーポレーションImmersion Corporation Systems and methods for haptic remote control gaming

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5212476A (en) * 1990-09-28 1993-05-18 Maloney Sean R Wireless intraoral controller disposed in oral cavity with electrodes to sense E.M.G. signals produced by contraction of the tongue

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213190A (en) 2006-02-08 2007-08-23 Advanced Telecommunication Research Institute International Communication robot improvement system
US20100204624A1 (en) 2007-07-31 2010-08-12 Universite Joseph Fourier-Grenoble 1 Endo-buccal device for tactile stimulation and actuation
JP2010248703A (en) 2009-04-10 2010-11-04 Ntt Docomo Inc Control system, control method, operation control unit, and working device
US20160154468A1 (en) 2012-03-19 2016-06-02 Dustin Ryan Kimmel Intraoral User Interface
JP2018183608A (en) 2012-08-02 2018-11-22 イマージョン コーポレーションImmersion Corporation Systems and methods for haptic remote control gaming
JP2017146400A (en) 2016-02-16 2017-08-24 稜威夫 永島 Bite-in tool and its use method

Also Published As

Publication number Publication date
JP2020123070A (en) 2020-08-13

Similar Documents

Publication Publication Date Title
Scheggi et al. Cooperative human-robot haptic navigation
Vonach et al. VRRobot: Robot actuated props in an infinite virtual environment
Tachi et al. Tele-existence master-slave system for remote manipulation. II
EP1779820B1 (en) Apparatus and method for controlling vehicle by teeth-clenching
CN107485543A (en) Mobile travelling aided bicycle, the monitoring with mobile travelling aided bicycle and information system and the method for operating mobile travelling aided bicycle
JP4849244B2 (en) Mobile robot and moving speed estimation method
KR101548156B1 (en) A wireless exoskeleton haptic interface device for simultaneously delivering tactile and joint resistance and the method for comprising the same
JP2003079685A (en) Auxiliary appliance for walking of visually handicapped person
JP2007139710A (en) Walking-aid robot
WO2007132571A1 (en) Robot
JP7291340B2 (en) controller
US20190258239A1 (en) Jacket for embodied interaction with virtual or distal robotic device
Hummel et al. A lightweight electrotactile feedback device for grasp improvement in immersive virtual environments
KR101181505B1 (en) Haptic interface having asymmetric reflecting points
JP4565196B2 (en) Communication robot
EP3364270A1 (en) Information processing device and information processing method
Ceccarelli et al. Design issues for human-machine platform interface in cable-based parallel manipulators for physiotherapy applications
Li et al. An egocentric computer vision based co-robot wheelchair
JP4798581B2 (en) Robot system
JP2004174692A (en) Man-machine robot and control method of man machine robot
JP2004042151A (en) Communication robot
Javaremi et al. Interface operation and implications for shared-control assistive robots
EP3966664B1 (en) Virtual, augmented and mixed reality systems with physical feedback
Zhang et al. Using the motion of the head-neck as a joystick for orientation control
JP2006289507A (en) Robot device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230406

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230525

R150 Certificate of patent or registration of utility model

Ref document number: 7291340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150