JP7291340B2 - controller - Google Patents
controller Download PDFInfo
- Publication number
- JP7291340B2 JP7291340B2 JP2019013591A JP2019013591A JP7291340B2 JP 7291340 B2 JP7291340 B2 JP 7291340B2 JP 2019013591 A JP2019013591 A JP 2019013591A JP 2019013591 A JP2019013591 A JP 2019013591A JP 7291340 B2 JP7291340 B2 JP 7291340B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- controller
- operator
- information
- oral cavity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラに関する。 TECHNICAL FIELD The present invention relates to a controller that remotely controls an object and that is operated by an operator in the oral cavity.
近年、様々な用途のロボットが熱心に開発されており、移動の自由度が低下している患者に向けてテレプレゼンスを提供するためのロボットもその一態様である。患者自身が自由に移動できない状況であっても、患者が操作者となってロボットを遠隔操作することによって、当該ロボットを自身から離れた場所へ移動させることができるので、操作者は、当該ロボットを介して自身から離れた場所の雰囲気を体験したり、当該ロボットの周囲に存在する人とコミュニケーションを図ったりすることができる。 In recent years, robots for various purposes have been enthusiastically developed, and a robot for providing telepresence to a patient whose degree of freedom of movement is reduced is one example. Even if the patient himself/herself cannot move freely, the patient can act as an operator and remotely control the robot to move the robot to a place away from the patient. Through the robot, you can experience the atmosphere of a place away from yourself, and communicate with people around the robot.
ところで、従来、操作者がロボットを遠隔操作するためには、キーボードやジョイスティックなどに代表される手で操作するコントローラが用いられていた。 By the way, conventionally, in order for an operator to remotely control a robot, a hand-operated controller typified by a keyboard or a joystick has been used.
そのため、手が不自由な操作者にとって、ロボットを遠隔操作することは、困難であった。 Therefore, it is difficult for an operator with handicapped hands to remotely operate the robot.
ところで、手が不自由な操作者のための入力装置であって、操作者の口腔を用いて操作する入力装置が特許文献1~3に記載されている。これらの入力装置のように、ロボットを遠隔操作するためのコントローラを口腔内で操作することも考えられる。
By the way,
しかしながら、ロボットを遠隔操作するためには、コントローラを自由に操作することができるかという課題に加えて、自身から離れた場所に存在するロボットの状態を把握することが難しいという課題がある。 However, in order to remotely control a robot, in addition to the problem of being able to freely operate the controller, there is also the problem that it is difficult to grasp the state of the robot that exists in a remote location.
本発明の一態様に係るコントローラは、上述した課題に鑑みなされたものであり、その目的は、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、自身から離れた場所に存在するロボットの状態を操作者が把握可能にすることである。 A controller according to an aspect of the present invention has been made in view of the above-described problems, and an object thereof is to provide a controller that remotely controls an object, and is a controller that is operated by an operator in the oral cavity so that the controller moves away from the operator. It is to enable an operator to grasp the state of a robot existing in a certain place.
上記の課題を解決するために、本発明の一態様に係るコントローラは、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔及び顔面の少なくとも何れか一方に与える刺激付与部を備えている。 In order to solve the above problems, a controller according to one aspect of the present invention is a controller that remotely controls an object, the controller being operated by an operator in the oral cavity, in which information fed back from the object is A stimulus applying unit is provided for applying a corresponding stimulus to at least one of the oral cavity and the face of the operator.
本発明の一態様によれば、対象物を遠隔制御するコントローラであって、操作者が口腔内で操作するコントローラにおいて、自身から離れた場所に存在するロボットの状態を操作者が把握することができる。 According to one aspect of the present invention, in a controller that remotely controls an object and is operated by an operator in the oral cavity, the operator can grasp the state of a robot that exists at a location away from the operator. can.
〔第1の実施形態〕
本発明の第1の実施形態に係るコントローラ10と、コントローラ10により遠隔制御されるロボット20とについて、図1及び図2を参照して説明する。
図1の(a)は、コントローラ10のブロック図である。図1の(b)は、ロボット20のブロック図である。図2の(a)は、コントローラ10の斜視図である。図2の(b)は、ロボット20の斜視図である。図2の(c)は、操作者の口腔POにより保持された状態のコントローラ10の斜視図である。図2の(d)は、口腔POにより保持された状態のコントローラ10の背面図である。
[First embodiment]
A
FIG. 1(a) is a block diagram of the
(口腔を用いることのメリット)
これまでの脳に関する研究により、人の口腔PO及び顔の運動野及び体性感覚野は、脳の広範な領域に亘っており、指及び手腕の運動野及び体性感覚野の広さに匹敵することが分かっている。したがって、口腔PO及び顔は、刺激の感受に優れており、訓練をすることによってより確度が高いコントローラの操作を実現可能ではないかと期待される。すなわち、口腔PO及び顔は、コントローラを操作する操作部として大きな潜在能力を有していると考えられる。
(Benefits of using the oral cavity)
According to previous studies on the brain, the oral cavity PO and the facial motor and somatosensory areas of the human body cover a wide area of the brain. I know they are comparable. Therefore, the oral cavity PO and the face are highly sensitive to stimuli, and it is expected that more accurate controller operations can be realized through training. In other words, the oral cavity PO and face are considered to have great potential as operating parts for operating the controller.
また、交通事故や、筋萎縮性側索硬化症(ALS)などの様々な理由により四肢が麻痺しているなど運動の自由度が低下している患者であっても、口腔PO及び顔は、麻痺していない場合も多い。そのため、対象物であり、且つ、操作者にテレプレゼンスを提供するためのロボット20を遠隔制御するコントローラ10であって、操作者が口腔内で操作するコントローラ10は、運動の自由度が低下した患者であって、これまではロボット20を遠隔操作することが困難であった患者に対しても、ロボット20を遠隔操作する機会を提供することができる。したがって、コントローラ10は、運動の自由度が低下した多くの患者に対してテレプレゼンスの機会を提供することができるので、これらの患者の生活の質を高めることができる。
In addition, even in patients with reduced freedom of movement such as paralysis of limbs due to various reasons such as traffic accidents and amyotrophic lateral sclerosis (ALS), oral PO and face , often not paralyzed. Therefore, the
(コントローラ10及びロボット20の概要)
コントローラ10(図1の(a)参照)は、操作者が口腔PO内で操作するコントローラであって、本実施形態では、対象物の一例であるロボット20(図1の(b)参照)を遠隔制御するコントローラである。
(Overview of
The controller 10 (see (a) in FIG. 1) is a controller operated by an operator in the oral cavity PO , and in this embodiment, a robot 20 (see (b) in FIG. 1), which is an example of a target object. is a controller that remotely controls the
コントローラ10は、例えば、入出力装置の1つとして、図1の(a)には図示していないパソコン(例えば図4に示したパソコンPC)に接続されている。パソコンは、コントローラ10が生成した遠隔制御情報であって、ロボット20を遠隔制御するため遠隔制御情報を、ロボット20へネットワークを介して供給する。
The
なお、コントローラ10は、パソコンに対して、ケーブルを用いて有線接続されていてもよいし、Bluetooth(登録商標)などの技術を用いて無線接続されていてもよい。本実施形態においては、コントローラ10は、パソコンに対して無線接続されているものとして説明する。
Note that the
ロボット20は、ネットワークを介して上述したパソコンに接続されている。ロボット20は、電力を利用して走行可能な電動ロボットであり、コントローラ10が生成した遠隔制御情報に応じてその移動を制御されている。
The
ロボット20は、複数のセンサを備えていることにより、自身の周囲における様々な状況を検知することができる。ロボット20は、検知した状況が所定の状況である場合に、そのことを操作者にフィードバックするためのフィードバック情報を生成する。ロボット20は、フィードバック情報をパソコンへネットワークを介して供給する。
The
上述した所定の状況の例としては、ロボット20の走行に障害がある状況、及び、ロボット20の周囲に人が存在する状況が挙げられる。前者の場合、ロボット20は、ロボット20の走行に障害があることを示すフィードバック情報を生成する。また、後者の場合、ロボット20は、ロボット20の周囲に人が存在することを示すフィードバック情報を生成する。
Examples of the predetermined situation described above include a situation in which the
パソコンは、ロボット20が生成したフィードバック情報をコントローラ10へ供給する。
The personal computer supplies feedback information generated by the
コントローラ10が備えている刺激付与部は、ロボット20が生成したフィードバック情報、すなわち、ロボット20からフィードバックされた情報に応じた刺激を、操作者の口腔PO及び顔面の少なくとも何れか一方に与える。本実施形態では、刺激付与部として、6個のバイブレータ14a~14fを採用している場合について説明する。バイブレータ14a~14fの各々は、ロボット20からフィードバックされた情報に応じた触覚刺激を上記操作者の口腔PO及び顔面の少なくとも何れか一方に与える。
A stimulus application unit included in the
以下では、図1の(a)及び図2の(a)を参照してコントローラ10の構成について説明し、図1の(b)及び図2の(b)を参照してロボット20の構成について説明し、図2の(a)~(d)を参照して、コントローラ10の使用方法及びロボット20の遠隔制御の例について説明する。
The configuration of the
(コントローラ10の構成)
図1の(a)に示すように、コントローラ10は、制御部11と、第1のセンサ12と、第2のセンサ13と、バイブレータ14a~14fと、圧力センサ15と、ベース16と、レバー17とを備えている。
(Configuration of controller 10)
As shown in FIG. 1(a), the
ベース16は、樹脂製の筐体であって、後述する制御部11及び第1のセンサ12を収容する。ベース16は、操作者の上あご及び下あごにより挟持されることによって、口腔POの近傍に保持される(図2の(c)及び(d)参照)。口腔POに対する感触を和らげ、上あご及び下あごによる保持性を高め、且つ、防水性を高めるために、ベース16のうち口腔PO側の部分は、柔らかい樹脂(本実施形態ではシリコーン樹脂)により覆われていることが好ましい。なお、図2の(a),(c),(d)においては、この柔らかい樹脂を図示していない。
The
レバー17は、一方の端部がベース16の内部に保持されており、他方の端部がベース16の外部に突出した、樹脂製の棒状部材である。レバー17の他方の端部が突出する方向は、上あご及び下あごにより保持された状態のベース16において、口腔PO側に向かう方向である(図2の(a)及び(c)参照)。
The
レバー17の一方の端部は、ベース16の内部に摺動可能な状態で保持されているので、レバー17の他方の端部は、ベース16に対して2次元的に操作することができる。操作者は、自身の舌を用いてレバー17の他方の端部を2次元的に操作する。
Since one end of the
第1のセンサ12は、姿勢センサであって、上述したように、筐体であるベース16の内部に収容されている。
The
第2のセンサ13は、第1のセンサ12と同じ構成を有する姿勢センサであって、レバー17の他方の端部に配置されている。なお、第2のセンサ13は、ベース16のうち口腔PO側の部分とともに、上述した柔らかい樹脂により覆われていることが好ましい。
The
バイブレータ14a~14fの各々は、後述する刺激付与部制御部115から制御されることによって振動する。本実施形態において、バイブレータ14a~14fの各々は、口腔PO内に配置されるように構成されており、制御部11に対して有線接続されている(図1の(a)参照)。具体的には、バイブレータ14a~14cの各々は、口腔PO内の上あごの右側、中央、及び左側に配置されており、バイブレータ14d~14fの各々は、口腔POの内の下あごの右側、中央、及び左側に配置されている(図2の(c),(d)参照)。
Each of the
バイブレータ14d~14fの各々を口腔PO内の空間の予め定められた位置に配置することによって、制御部11は、ロボット20の周囲の空間に関する空間情報を口腔PO内の空間内に投射することによって、ロボット20の周囲の空間の様子をより詳しく操作者にフィードバックすることができる。
By arranging each of the
なお、図2の(c)及び(d)においては、バイブレータ14a~14fの各々と、制御部11とを接続するケーブルの図示を省略している。また、本実施形態では、刺激付与部として6個のバイブレータ14d~14fを採用している。しかし、バイブレータの数は、限定されるものではない。例えば、バイブレータの数を更に増やすことによって、口腔PO内の空間により密にバイブレータを配置してもよい。
In addition, in (c) and (d) of FIG. 2, illustration of cables connecting each of the
また、バイブレータ14d~14fは、図2の(c)及び(d)に示すように、上あご又は下あごに直接接するように配置されていてもよいし、口腔PO内にフィットするように成形されたマウスピースの内部又は歯茎側の表面に配置されていてもよい。バイブレータ14d~14fをマウスピースに配置する場合、例えば、ベース16のうち口腔PO側の部分を柔らかい樹脂により構成し、その柔らかい樹脂を口腔PO内にフィットする形状に成形することによって、マウスピースを構成することができる。
Also, the
圧力センサ15は、ベース16のうち口腔PO側の部分に配置されており、歯に噛まれることによってベース16に加えられる圧力を検出し、その圧力を示す圧力信号を制御部11へ供給する。制御部11は、供給された圧力信号が表す圧力と、予め定められた閾値とを参照し、上記圧力が上記閾値を上回っているか否かに応じて、スイッチのON又はOFFを切り替える。圧力センサ15は、如何なる機能のスイッチとしても利用可能である。例えば、圧力センサ15は、モード切替スイッチや、イネーブルスイッチとして利用可能である。
The
第1のセンサ12及び第2のセンサ13として採用する姿勢センサは、市販されている姿勢センサのなかから適宜選択して採用することができる。また、これらの姿勢センサは、市販されている加速度センサとジャイロセンサとを組み合わせることによって実現することもできる。
The orientation sensors employed as the
第1のセンサ12及び第2のセンサ13の各々は、自身の姿勢を3次元のベクトル量として検知することができる。以下において、第1のセンサ12の姿勢を示す3次元のベクトル量である姿勢情報を第1の姿勢情報と称し、第2のセンサ13の姿勢を示す3次元のベクトル量である姿勢情報を第2の姿勢情報と称する。
Each of the
そのうえで、第1のセンサ12及び第2のセンサ13の各々は、レバー17がベース16に対する原点に位置する状態(すなわち操作者がレバー17を操作していない状態)において、第1の姿勢情報と、第2の姿勢情報とが一致するように、それぞれ配置されている。
Then, each of the
操作者が舌を用いてレバー17を操作した場合、第1の姿勢情報と、第2の姿勢情報との間に差分が生じる。後述するように、制御部11は、第1の姿勢情報と、第2の姿勢情報との差分から、レバー17の操作された方向及びレバー17の操作された量(すなわちレバー17の操作ベクトル)を特定することができる。
When the operator uses the tongue to operate the
(ロボット20の構成)
図1の(b)及び図2の(b)に示すように、ロボット20は、制御部21と、タブレット端末22と、磁界センサ23と、レーザ測域センサ24と、駆動機構25と、筐体26とを備えている。なお、図1の(b)に示した二点鎖線は、後述するロボット20の変形例における情報の伝送系路を示すものである。
(Configuration of robot 20)
As shown in (b) of FIG. 1 and (b) of FIG. a
図2の(b)に示すように、筐体26は、円筒形であり、その頭部が半球状に成形されている。筐体26は、その内部に、制御部21と、磁界センサ23と、駆動機構25とを収容している。また、筐体26の頭部には、タブレット端末22が設置されている。本実施形態において、タブレット端末22は、カメラ221と、液晶表示装置222とを備えている。
As shown in FIG. 2(b), the
カメラ221は、ロボット20の前方の画像を撮影し、該画像を表す画像情報を生成するデジタルカメラである。カメラ221は、生成した画像情報を制御部21に供給する。カメラ221が生成する画像は、動画像であってもよいし、静止画像であってもよい。カメラ221は、ロボット20の周囲に人が存在する場合に、その人を検知する人感センサとして機能する。
The
なお、本実施形態において、カメラ221は、ロボット20の前方の画像のみを撮影するように構成されている。しかし、カメラ221は、円筒形である筐体26の中心軸を回転軸として、その軸回りにその画角を回転可能なように配置されており、ロボット20の全方位の画像を順次撮影するように構成されていてもよい。また、ロボット20は、複数のカメラを備えており、ロボット20の全方位の画像を撮影可能なように構成されていてもよい。これらのように、カメラがロボット20の全方位の画像を撮影可能であることによって、ロボット20は、その周囲に人が存在することをより高い確度で検知することができる。
In addition, in this embodiment, the
液晶表示装置222は、制御部21からの制御に応じて、ロボット20の感情を表す表情を表示する。
The liquid
磁界センサ23は、ロボット20の周囲における磁界の強さを検出する磁界センサであり、ロボット20の周囲の空間の様子を検知する空間センサの一態様である。本実施形態において、磁界センサ23は、4つの磁界センサ231~234により構成されている。図2の(b)に示すように、磁界センサ231は、ロボット20の左斜め前方に配置されており、磁界センサ232は、左斜め後方に配置されており、磁界センサ233は、右斜め前方に配置されており、磁界センサ234は、右斜め後方に配置されている。
The
図4を参照して後述するように、ロボット20が移動可能な通路が予め定められており、その通路の輪郭が磁界により規定されている場合がある。このような場合に、磁界センサ23及び制御部21は、ロボット20の周囲における磁界の強さを検出することによって、ロボット20が進もうとしている方向が、上述した通路に沿った方向なのか、上述した通路から外れる方向なのか特定することができる。
As will be described later with reference to FIG. 4, there are cases where a path along which the
また、本実施形態において、磁界センサ23は、4つの磁界センサ231~234により構成されている。4つの磁界センサ231~234の各々は、それぞれが検出した磁界の強さを表す第1~第4の磁界情報を生成する。第1~第4の磁界情報を解析することにより、制御部21は、上述した通路から外れる方向がロボット20の何れの方向であるのかを特定することができる。
Further, in this embodiment, the
レーザ測域センサ24は、構造物や人などを検知可能な空間センサの一態様である。以下では、構造物を例にしてレーザ測域センサ24について説明するが、人も構造物と同様に検知することができる。レーザ測域センサ24は、市販されているレーザ測域センサから好適なスペックを有するレーザ測域センサを適宜選択すればよい。
The
レーザ測域センサ24は、ロボット20の周囲360度の領域内をレーザ光により走査することによって、その領域内に壁などの構造物が存在するか否か、及び、構造物が存在する場合には、構造物が位置する方向と、構造物までの距離を推定する。換言すれば、レーザ測域センサ24は、ロボット20の周囲の空間内における自己位置を推定することができる。構造物を検出可能なロボット20からの距離は、レーザ測域センサ24の性能に依存するが、例えば遮蔽物がない場合において10mである。
The
レーザ測域センサ24は、ロボット20の周囲に構造物が存在するか否か、及び、構造物が存在する場合には、構造物が位置する方向と、構造物までの距離とを表す構造物情報を生成する。
The
駆動機構25は、電動モータと、該電動モータにより発生された駆動力を地面に伝える複数のタイヤとを備えている。複数のタイヤの各々は、上記駆動力を適宜分配して地面に伝えることによって、ロボット20を、前進させたり(図2の(b)に示す矢印B1)、後退させたり(図2の(b)に示す矢印B2)、右方向を向くように筐体26の軸回りに回転させたり(図2の(b)に示す矢印B3)、左方向を向くように筐体26の軸回りに回転させたり(図2の(b)に示す矢印B4)、することができる。
The
また、ロボット20は、図1の(b)及び図2の(b)に図示しないスピーカ及びマイクを備えていてもよい。ロボット20がスピーカ及びマイクを備えていることによって、ロボット20は、自身の周囲に人が存在する場合に、その人とコミュニケーションを図ることができる。また、コントローラ10が接続されているパソコンが入出力装置としてスピーカ及びマイクを備えている場合であれば、操作者は、上述したパソコン及びロボット20を介して、ロボット20の周囲に存在している人とコミュニケーションを図ることができる。これらの構成によれば、操作者は、自身が移動することなくテレプレゼンスを実現することができる。
Also, the
(コントローラ10及びロボット20の機能)
コントローラ10の制御部11としては、例えばマイコンのような簡易なコンピュータを採用することができる。図1の(a)に示すように、制御部11は、センサ情報受信部111と、遠隔制御情報生成部112と、遠隔制御情報送信部113と、フィードバック情報受信部114と、刺激付与部制御部115とを備えている。
(Functions of
A simple computer such as a microcomputer can be employed as the
また、ロボット20の制御部21としては、コンピュータを採用することができる。図1の(b)に示すように、制御部21は、人検知部211と、磁界検知部212と、フィードバック情報生成部213と、フィードバック情報送信部214と、遠隔制御情報受信部215と、駆動機構制御部216とを備えている。
A computer can be employed as the
以下、コントローラ10及びロボット20が実現する機能について、順を追って説明する。
Functions realized by the
センサ情報受信部111は、第1のセンサ12から第1の姿勢情報を取得し、第2のセンサ13から第2の姿勢情報を取得する。
The sensor
遠隔制御情報生成部112は、センサ情報受信部111から第1の姿勢情報及び第2の姿勢情報を取得し、第1の姿勢情報と第2の姿勢情報との差分からレバー17の操作ベクトルを特定する。遠隔制御情報生成部112は、特定したレバー17の操作ベクトルに応じて、ロボット20を遠隔制御するための情報である遠隔制御情報を生成する。例えば、遠隔制御情報生成部112は、特定したベクトルを、矢印A1,A2に平行な方向の成分(前後方向成分)と、矢印A3,A4に平行な方向の成分(回転方向成分)とに分解し、前後方向成分及び回転方向成分の各々に応じた遠隔制御情報を生成する。
The remote control
図2の(a)には、レバー17の操作ベクトルの例として、レバー17を上及び下の各々に操作した場合の操作ベクトルを、それぞれ、矢印A1及びA2として示している。また、レバー17を右及び左の各々に操作した場合の操作ベクトルを、それぞれ、矢印A3及びA4として示している。
In FIG. 2A, as an example of the operation vector of the
例えば、レバー17が上方向に操作された場合、遠隔制御情報生成部112は、矢印A1の方向を向き、且つ、レバー17が倒された角度に応じた大きさを有するベクトルを特定する。そのうえで、遠隔制御情報生成部112は、特定した当該ベクトルを、矢印A1,A2に平行な方向の成分である前後方向成分と、矢印A3,A4に平行な方向の成分である回転方向成分とに分解し、前後方向成分及び回転方向成分の各々に応じた遠隔制御情報を生成する。ただし、この場合、回転方向成分は、0である。
For example, when the
また、レバー17が右上方向(矢印A1の方向と矢印A3の方向との間の方向)に操作された場合、遠隔制御情報生成部112は、矢印A1の方向と矢印A3の方向との間の方向を向き、且つ、レバー17が倒された角度に応じた大きさを有するベクトルを特定する。そのうえで、遠隔制御情報生成部112は、特定した当該ベクトルを、前後方向成分と、回転方向成分とに分解し、前後方向成分及び回転方向成分の各々に応じた遠隔制御情報を生成する。
Further, when the
遠隔制御情報送信部113は、パソコンを介して、遠隔制御情報生成部112が生成した遠隔制御情報をロボット20へ送信する。
The remote control
ロボット20の遠隔制御情報受信部215は、遠隔制御情報送信部113がパソコンを介して送信した遠隔制御情報を受信する。
The remote control
駆動機構制御部216は、遠隔制御情報受信部215から遠隔制御情報を取得し、該遠隔制御情報に応じて駆動機構25を制御する。その結果、操作者がコントローラ10のレバー17を上方向に操作した場合(図2の(a)に示す矢印A1)、ロボット20は、前進し(図2の(b)に示す矢印B1)、操作者がコントローラ10のレバー17を下方向に操作した場合(図2の(a)に示す矢印A2)、ロボット20は、後退する(図2の(b)に示す矢印B2)。また、操作者がコントローラ10のレバー17を右方向に操作した場合(図2の(a)に示す矢印A3)、ロボット20は、右方向を向くように筐体26の軸回りに回転させ(図2の(b)に示す矢印B3)、操作者がコントローラ10のレバー17を左方向に操作した場合(図2の(a)に示す矢印A4)、ロボット20は、左方向を向くように筐体26の軸回りに回転させる(図2の(b)に示す矢印B4)。
The driving
また、操作者がレバー17を右上方向に操作した場合、駆動機構制御部216は、上述した前後方向成分に応じてロボット20を前進させるとともに、上述した回転方向成分に応じてロボット20が右方向を向くように筐体26の軸回りに回転させる。
Further, when the operator operates the
以上のように、ロボット20は、遠隔制御情報に応じて移動可能である。したがって、操作者は、コントローラ10を口腔PO内で操作することによって、ロボット20を遠隔操作することができる。
As described above, the
人検知部211は、ロボット20の前方の画像を表す画像情報をカメラ221から取得する。人検知部211は、当該画像情報を解析することによって、ロボット20の前方の画像に人が含まれているか否かを判定する。
The
磁界検知部212は、磁界センサ23を構成する磁界センサ231~234の各々がそれぞれ生成する第1~第4の磁界情報を、磁界センサ231~234の各々から取得する。磁界検知部212は、第1~第4の磁界情報が表す磁界の強さが、予め定められた閾値磁界を超えているか否かを判定する。
The magnetic
そのうで、磁界検知部212は、ロボット20の進路が通路から外れそうな場合に、通路から外れる方向がロボット20の何れの方向であるのかを表す方向特定情報をフィードバック情報生成部213へ供給する。
As such, when the
フィードバック情報生成部213は、ロボット20の前方の画像に人が含まれていると人検知部211が判定した場合、すなわち、人検知部211は、ロボット20の前方に人が存在する場合に、ロボット20の前方に人が存在する旨を表すフィードバック情報を生成する。
When the
また、フィードバック情報生成部213は、第1~第4の磁界情報のうち少なくとも何れか1つが表す磁界の強さが、予め定められた閾値磁界を超えていると磁界検知部212が判定した場合、ロボット20が上述した通路から外れようとしている方向を特定し、当該方向を示すフィードバック情報を生成する。
Further, when the magnetic
例えば、第1,第2の磁界情報が表す磁界の強さ上述した閾値磁界を上回っている場合、フィードバック情報生成部213は、ロボット20が上述した通路から外れようとしている方向がロボット20の左方向であると特定し、特定した左方向を示すフィードバック情報を生成する。
For example, if the strength of the magnetic field represented by the first and second magnetic field information exceeds the above-described threshold magnetic field, the feedback
また、フィードバック情報生成部213は、レーザ測域センサ24が生成する構造物情報を参照し、ロボット20の周囲に構造物が存在する場合には、構造物が位置する方向に対応した方向を示すフィードバック情報を生成する。また、このフィードバック情報には、構造物が位置する方向に対応した方向のバイブレータ(14a~14fのうち少なくとも何れか)の振動強度であって、構造物までの距離に応じて定められた振動強度を表す強度情報が含まれていてもよい。
Further, the feedback
フィードバック情報送信部214は、フィードバック情報生成部213が生成したフィードバック情報をパソコンへ送信する。
The feedback
コントローラ10のフィードバック情報受信部114は、パソコンを介して、フィードバック情報生成部213が生成したフィードバック情報を取得し、刺激付与部制御部115へ供給する。
The feedback
刺激付与部制御部115は、フィードバック情報受信部114から取得したフィードバック情報に応じて、バイブレータ14a~14fのうち少なくとも何れか一方を振動させる。すなわち、刺激付与部制御部115は、フィードバック情報に応じた諸各区刺激を操作者の口腔PO及び顔面の少なくとも何れか一方に与える。
The stimulus applying
例えば、フィードバック情報がロボット20の前方に人が存在する旨を表すフィードバック情報である場合、刺激付与部制御部115は、バイブレータ14a~14fのうち前方に対応したバイブレータ14b,14eを振動させる。これにより、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20の前方に人が存在していることを知ることができる。
For example, if the feedback information is feedback information indicating that a person exists in front of the
また、例えば、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、刺激付与部制御部115は、バイブレータ14a~14fのうち、特定された方向に対応付けられたバイブレータを振動させる。例えば、フィードバック情報が特定している方向が左側である場合、刺激付与部制御部115は、口腔POの左側に配置されたバイブレータ14c,14fを振動させる。これにより、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路から左側へ外れようとしていることを知ることができる。
Further, for example, when the feedback information is feedback information specifying the direction in which the
また、例えば、フィードバック情報が、構造物情報を含んでいる場合、刺激付与部制御部115は、バイブレータ14a~14fのうち、特定された方向に対応付けられたバイブレータを振動させる。構造物情報に強度情報が更に含まれている場合、刺激付与部制御部115は、強度情報が表す振動強度で特定された方向に対応付けられたバイブレータを振動させる。これにより、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20の周囲に存在する壁の方向及び壁までの距離を知ることができる。
Further, for example, when the feedback information includes structure information, the stimulus applying
なお、(1)ロボット20の周囲に人が存在する旨をフィードバックする場合と、(2)ロボット20が通路から外れようとしている旨をフィードバックする場合と、(3)ロボット20の周囲に存在する壁の方向及び壁までの距離をフィードバックする場合とを操作者が区別できるようにするために、(1)~(3)の各場合における振動は、それぞれ、振動の態様(リズムや振動強度など)が異なっていることが好ましい。
In addition, (1) when feedback is given that a person exists around the
(ロボット20が備えているセンサの例)
本実施形態では、ロボット20が備えているセンサの例として、カメラ221、磁界センサ23、及びレーザ測域センサ24を用いた。しかし、ロボット20が備えているセンサは、これらの限定されるものではない。他のセンサの例としては、人及び空間を検知するための赤外カメラ、人を検知するための熱カメラ、及び、特定の装置(例えばロボットを充電するためのロボットステーション)や特定の人(例えば介護施設の職員)を検知するためのビーコンユニットが挙げられる。
(Example of sensors provided in the robot 20)
In this embodiment, the
フィードバック情報生成部213は、これらのセンサが生成した情報に応じて、予め定められたフィードバック情報を生成するように構成されていてもよい。
The
〔ロボット20の変形例〕
本実施形態において、ロボット20は、操作者がコントローラ10を操作することによって、操作者の意図に基づき操作されているものとして説明した。しかし、ロボット20においては、予め定められた目的地へ向かって自律走行可能なように駆動機構25を制御するように、駆動機構制御部216が構成されていてもよい。この場合、駆動機構制御部216は、ロボット20が自律走行している場合に、(1)人検知部211が生成するロボット20の前方の画像に人が含まれているか否かを表す情報、(2)磁界検知部212が生成する方向特定情報、及び、(3)レーザ測域センサ24が生成する構造物情報を参照して(図1の(b)に示した二点鎖線参照)、目的地へ向かうための経路を再設定してもよい。
[Modified example of robot 20]
In the present embodiment, the
また、ロボット20が自律走行している場合に、フィードバック情報生成部213は、上述した(1)、(2)、及び(3)の情報を参照してフィードバック情報を生成し、フィードバック情報送信部214を介して該フィードバック情報をパソコンへ送信してもよい。
Further, when the
例えば、ロボット20が自律走行している場合に前方に人を検知したとする。その場合、フィードバック情報生成部213は、ロボット20の前方の画像に人が含まれている旨を示すフィードバック情報を生成する。コントローラ10の刺激付与部制御部115は、そのフィードバック情報に応じてバイブレータ14a~14fのうち前方に対応したバイブレータ14b,14eを振動させることにより、操作者に人の存在をフィードバックする。
For example, assume that a person is detected ahead while the
ここで、操作者がコントローラ10を何も操作しない場合、駆動機構制御部216は、予め設定されていた経路の通り、ロボット20を進めるように駆動機構25を制御する。
Here, when the operator does not operate the
一方、ここで、操作者がコントローラ10を操作することによって、ロボット20の前方にいる人にアプローチしたいという意思を示した場合(すなわち、操作者が一時的な目的地を設定した場合)、ロボット20は、コントローラ10からの信号に応じて、予め設定されていた経路を一度キャンセルし、人にアプローチする。すなわち、駆動機構制御部216は、ロボット20を人のそばへ移動させ、その場へ停止させるように駆動機構25を制御する。人にアプローチしたいという意思を示すためのコントローラ10の操作は、限定されるものではなく適宜定めることができるが、例えば、圧力センサ15のダブルクリックをこの操作に割り当てることもできる。
On the other hand, here, when the operator operates the
ロボット20がこのように構成されていることにより、操作者が常にロボット20を操作している必要がなくなるため、操作者の負担を軽減できる。そのうえで、操作者は、ロボット20からのフィードバックに基づいて、自身の意思を介入させることができるため、受け身ではなくより積極的な気持ちでテレプレゼンスを利用することができる。
Since the
また、ロボット20が自律走行可能に構成されている場合であっても、上述したように、操作者が自分の意思に基づいてロボット20を直接操作することもできる。
Further, even when the
なお、ロボット20において、操作者がロボット20の経路にどの程度介入できるかは、変更可能に構成されていてもよい。この介入度合いの変更は、介護施設の職員が行うように構成されていてもよいし、操作者が行うように構成されていてもよい。
The
〔コントローラ10の変形例〕
本発明の変形例であり、図1及び図2に示したコントローラ10の変形例であるコントローラ10Aについて、図3を参照して説明する。図3は、口腔POにより保持された状態のコントローラ10Aの斜視図である。
[Modification of controller 10]
A
コントローラ10Aは、コントローラ10をベースにして、コントローラ10が備えているバイブレータ14a~14fを液体噴出器14Aに置き換えることによって得られる。したがって、本変形例においては、液体噴出器14Aについて説明する。なお、説明の便宜上、コントローラ10Aが備えている部材のうち、コントローラ10が備えている部材と同じ部材については、同じ符号を付記し、その説明を繰り返さない。
The
液体噴出器14Aは、特許請求の範囲に記載の刺激付与部の一例であり、フィードバック情報に応じた味覚刺激を操作者の口腔POに与えるように構成されている。
The
図3に示すように、液体噴出器14Aは、ノズル141と、バルブ142と、リザーバ143とを備えている。
As shown in FIG. 3, the
ノズル141は、一方の端部から液体である味覚刺激物を供給され、他方の端部である噴出口から味覚刺激物を噴出させる。ノズル141は、噴出口を口腔PO内に配置するように設計されている。
The
バルブ142は、後述する刺激付与部制御部115によりその開閉を制御されている。バルブ142が開かれた場合、リザーバ143からノズル141へ味覚刺激物が供給され、ノズル141は、味覚刺激物を噴出させる。バルブ142が閉じられた場合、リザーバ143からノズル141への味覚刺激物の供給が遮断されるので、ノズル141は、味覚刺激物を噴出させない。
The opening and closing of the
リザーバ143は、味覚刺激物を貯蔵している貯蔵庫である。上述したように、味覚刺激物は、バルブ142を介してノズル141へ供給される。
リザーバ143は、それぞれ味が異なる複数の味覚刺激物を貯蔵していてもよい。例えば、リザーバ143は、味が甘い第1の味覚刺激物と、味が苦い第2の味覚刺激物とを貯蔵していてもよい。
刺激付与部制御部115は、フィードバック情報に応じてバルブ142の開閉を制御する。また、リザーバ143がそれぞれ味の異なる複数の味覚刺激物を貯蔵している場合、例えば、リザーバ143が第1の味覚刺激物と第2の味覚刺激物とを貯蔵している場合、刺激付与部制御部115は、フィードバック情報に応じて、ノズル141へ供給する味覚刺激物を適宜切り替える。
The stimulation
例えば、フィードバック情報がロボット20の前方に人が存在する旨を表すフィードバック情報である場合、刺激付与部制御部115は、味が甘い第1の味覚刺激物を選択したうえで、バルブ142を開くことによって、口腔PO内に甘い味覚刺激を与える。口腔PO内に甘い味覚刺激を与えられた操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20の前方に人が存在していることを知ることができる。
For example, if the feedback information is feedback information indicating that a person is present in front of the
また、例えば、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、刺激付与部制御部115は、味が苦い第2の味覚刺激物を選択したうえで、バルブ142を開くことによって、口腔PO内に苦い味覚刺激を与える。口腔PO内に苦い味覚刺激を与えられた操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路からいずれかの方向へ外れようとしていることを知ることができる。
Further, for example, when the feedback information specifies the direction in which the
なお、本変形例において、刺激付与部の一例として液体を噴出する液体噴出器14Aを用いて説明した。しかし、刺激付与部は、粉体を噴出する粉体噴出器であってもよいし、気体を噴出する気体噴出器であってもよい。
In addition, in this modified example, the
換言すれば、リザーバ143は、液体である味覚刺激物の代わりに粉体又は気体の味覚刺激物を貯蔵するように構成されていてもよい。
In other words,
また、本変形例において、ノズル141は、噴出口を口腔PO内に配置するように設計されている。しかし、ノズル141は、噴出口を鼻腔内に配置するように設計されていてもよい。この場合、リザーバ143は、味覚刺激を与える味覚刺激物の代わりに、臭覚刺激を与える臭覚刺激物を貯蔵するように構成されていることが好ましい。
Moreover, in this modification, the
以上のように、コントローラ10Aが備えている刺激付与部は、フィードバック情報に応じた味覚刺激又は臭覚刺激を操作者の口腔PO又は鼻腔に与える、紛体噴出器、液体噴出器、又は気体噴出器を有していればよい。
As described above, the stimulation imparting unit included in the
〔対象物の変形例〕
コントローラ10により遠隔制御される対象物は、ロボット20に限定されるものではなく、電動車いすであってもよいし、パソコンを用いたシミュレータにより仮想的に可視化された移動体であってもよい。
[Modified example of object]
The object remotely controlled by the
対象物が電動車いすである場合、操作者は、口腔PO内でコントローラ10を操作することのよって、電動車いすを制御することができる。
When the object is an electric wheelchair, the operator can control the electric wheelchair by operating the
更に、コントローラ10は、ロボット20が生成したフィードバック情報に応じた刺激を、刺激付与部を用いて操作者の口腔PO及び顔面の少なくとも何れか一方に与えることができる。したがって、操作者は、口腔PO及び顔面の少なくとも何れか一方を用いてロボット20からフィードバックを受けることができる。たとえば、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路から左側へ外れようとしていることを知ることができる。
Furthermore, the
対象物がシミュレータによって仮想的に可視化された移動体である場合、操作者は、このシミュレータを用いてコントローラ10の扱いを習熟することができる。
If the target object is a moving object that is virtually visualized by a simulator, the operator can use this simulator to learn how to handle the
この場合であっても同様に、フィードバック情報が、ロボット20が上述した通路から外れようとしている方向を特定しているフィードバック情報である場合、操作者は、ロボット20からのフィードバックされた情報に基づき、ロボット20が上述した通路から外れようとしていることを知ることができる。
Even in this case, if the feedback information specifies the direction in which the
〔実施例群〕
第1~第4の操作者が第1の実施形態に係るコントローラ10を用いてロボット20を遠隔操作した場合の実施例群について、図4~図6を参照して説明する。
[Example group]
A group of examples in which the first to fourth operators remotely operate the
図4は、操作者がコントローラ10を用いてロボットを操作している様子を示す斜視図である。図5の(a),(c),(e)の各々は、それぞれ、第1~第3の操作者がキーボードを用いてロボットを操作した軌跡を示す平面図である。図5の(b),(d),(f)の各々は、それぞれ、第1~第3の操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作した軌跡を示す平面図である。図6の(a)は、第4の操作者がゲーム用のコントローラを用いてロボットを操作した軌跡を示す平面図である。図6の(b)は、第4の操作者が本発明の第1の実施形態に係るコントローラを用いてロボットを操作した軌跡を示す平面図である。なお、第1~第3の操作者は、健常者であり、第4の操作者は、筋萎縮性側索硬化症(ALS)の患者である。
FIG. 4 is a perspective view showing how an operator operates the robot using the
図4に示すように、本実施例群において、ロボット20が移動する地面には、2本の導線W1,W2を敷設することによって、クランク形状の通路Paが設けられている。各操作者は、口腔PO内でコントローラ10を操作することによって、ロボット20が通路Paの入口から出口まで通過するように、ロボット20を遠隔操作する。
As shown in FIG. 4, in this embodiment group, a crank-shaped passage Pa is provided on the ground on which the
なお、第1の実施形態において上述したように、コントローラ10は、パソコンPCに対して無線接続されている。また、ロボット20とパソコンPCとも、互いに無線接続されている。
Note that the
図5の(a)~(f)によれば、第1の操作者の1回目のトライにおいて、ロボット20は、通路Paから大きく逸脱した(図5の(b)参照)。しかし、第1の操作者の2回目以降のトライ、及び、第2~第3の操作者の全トライにおいて、ロボット20は、通路Paから大きく逸脱することもなく通路Paを通過した。すなわち、コントローラ10を用いた場合であっても、キーボードを用いる場合と同様に、操作者は、ロボット20を遠隔操作可能なことが分かった。
According to FIGS. 5(a) to 5(f), in the first attempt by the first operator, the
これは、コントローラ10を用いることにより、ロボット20からのフィードバック情報に応じたフィードバックを操作者が受けることができたためと考えられる。
This is probably because the operator was able to receive feedback according to the feedback information from the
また、トライの回数を重ね操作者がコントローラ10の操作に慣れるにしたがって、キーボードを用いた場合のロボット20の軌跡と、コントローラ10を用いた場合のロボット20の軌跡との間に有意な差はなくなった。
As the number of tries increases and the operator becomes accustomed to operating the
また、第1~第3の操作者の各々について、それぞれ、3回のトライについて、通路Paを通過する移動時間を測定した。キーボードを用いた場合の移動時間と、コントローラ10を用いた場合の移動時間とについても、トライの回数を重ね操作者がコントローラ10の操作に慣れるにしたがって、有意な差はなくなった。
In addition, for each of the first to third operators, the movement time for passing through the path Pa was measured for three tries. There is no significant difference between the movement time when using the keyboard and the movement time when using the
図6の(a)及び(b)によれば、ALSの患者である第4の操作者がロボット20を遠隔操作した場合においても、ゲーム用のコントローラを用いた場合のロボット20の軌跡と、コントローラ10を用いた場合のロボット20の軌跡との間に有意な差はなくなった。
According to FIGS. 6A and 6B, even when the fourth operator who is an ALS patient remotely controls the
以上のように、操作者が健常者である場合であっても、ALSの患者である場合であっても、コントローラ10を口腔PO内で操作することによって、キーボード又はゲーム用のコントローラを手で操作する場合と同程度の確かさでロボット20を遠隔操作できることが分かった。
As described above, whether the operator is a healthy person or an ALS patient, the keyboard or game controller can be operated by operating the
〔まとめ〕
本発明の態様1に係るコントローラは、対象物(ロボット20、電動車いす、及びパソコンを用いたシミュレータにより仮想的に可視化された移動体)を遠隔制御するコントローラ10であって、操作者が口腔PO内で操作するコントローラ10において、上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔PO及び顔面の少なくとも何れか一方に与える刺激付与部(バイブレータ14a~14f及び液体噴出器14A)を備えている。
〔summary〕
The controller according to
上記の構成によれば、操作者は、口腔POを用いてロボット20に代表される移動体を遠隔操作することができる。口腔POを用いて例えばロボット20を遠隔操作することには、上述したようなメリットがある。
According to the above configuration, the operator can remotely operate a moving object represented by the
更に、コントローラ10は、ロボット20が生成したフィードバック情報に応じた刺激を、刺激付与部を用いて操作者の口腔PO及び顔面の少なくとも何れか一方に与えることができる。したがって、操作者は、口腔PO及び顔面の少なくとも何れか一方を用いてロボット20からフィードバックを受けることができる。
Furthermore, the
以上のように、コントローラ10を用いることによって、操作者は、口腔POを用いてロボット20を遠隔操作することができ、且つ、口腔PO及び顔面の少なくとも何れか一方を用いてロボット20からフィードバックを受けることができる。したがって、コントローラ10は、自身から離れた場所に存在するロボット20の状態を操作者が把握することができる。
As described above, by using the
本発明の態様2に係るコントローラにおいて、上記刺激付与部は、上記情報に応じた触覚刺激を上記操作者の口腔及び顔面の少なくとも何れか一方に与えるバイブレータを有している、ことが好ましい。
In the controller according to
上記の構成によれば、操作者は、口腔及び顔面の少なくとも何れか一方に伝わる振動を介して、ロボット20からのフィードバックを受けることができる。したがって、口腔及び顔面の少なくとも何れか一方の触覚が機能していれば、操作者は、ロボット20からのフィードバックを受けることができる。
According to the above configuration, the operator can receive feedback from the
また、刺激付与部として複数のバイブレータを採用し、各バイブレータを所定の空間内(例えば口腔PO内)に配置するように構成した場合には、例えば構造物の方向及び構造物までの距離に関する情報を操作者にフィードバック(空間投射)することができる。 In addition, when a plurality of vibrators are adopted as the stimulus applying unit and each vibrator is arranged in a predetermined space (for example, in the oral cavity PO ), for example, the direction of the structure and the distance to the structure Information can be fed back (spatial projection) to the operator.
本発明の態様3に係るコントローラにおいて、上記刺激付与部は、上記情報に応じた味覚刺激又は臭覚刺激を上記操作者の口腔又は鼻腔に与える、紛体噴出器、液体噴出器、又は気体噴出器を有していてもよい。
In the controller according to
上記の構成によれば、操作者は、味覚刺激又は臭覚刺激を介して、ロボット20からのフィードバックを受けることができる。したがって、味覚又は臭覚が機能していれば、操作者は、ロボット20からのフィードバックを受けることができる。
According to the above configuration, the operator can receive feedback from the
本発明の態様4に係るコントローラにおいて、上記対象物は、走行可能なロボット20であり、上記情報は、ロボット20の走行に障害があることを示す情報である、ことが好ましい。
In the controller according to
上記の構成によれば、操作者は、ロボット20の走行に障害がある旨の情報を、ロボット20からのフィードバックとして得ることができる。
According to the above configuration, the operator can obtain information from the
本発明の態様5に係るコントローラにおいて、上記対象物は、走行可能なロボット20であり、上記情報は、ロボット20の周囲に人が存在することを示す情報である、ことが好ましい。
In the controller according to
上記の構成によれば、操作者は、ロボット20の周囲に人が存在する旨の情報を、ロボット20からのフィードバックとして得ることができる。
According to the above configuration, the operator can obtain information indicating that there are people around the
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
[Additional notes]
The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
10 コントローラ
11 制御部
12,13 第1,第2のセンサ
14a~14f バイブレータ(刺激付与部)
14A 液体噴出器(刺激付与部)
15 圧力センサ
20 ロボット(対象物)
PO 操作者の口腔
10
14A liquid ejector (stimulation applying part)
15
Oral cavity of PO operator
Claims (2)
上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔及び顔面の少なくとも何れか一方に与える刺激付与部を備え、
上記刺激付与部は、上記情報に応じた味覚刺激又は臭覚刺激を上記操作者の口腔又は鼻腔に与える、紛体噴出器、液体噴出器、又は気体噴出器を有している、
ことを特徴とするコントローラ。 A controller that remotely controls an object and is operated by an operator in the oral cavity,
a stimulus imparting unit that imparts a stimulus to at least one of the oral cavity and the face of the operator according to the information fed back from the object;
The stimulation imparting unit has a powder ejector, a liquid ejector, or a gas ejector that imparts taste stimulation or olfactory stimulation according to the information to the oral cavity or nasal cavity of the operator.
A controller characterized by:
上記対象物からフィードバックされた情報に応じた刺激を、上記操作者の口腔及び顔面の少なくとも何れか一方に与える刺激付与部を備え、
上記対象物は、走行可能なロボットであり、
上記情報は、上記ロボットの周囲に人が存在することを示す情報である、
ことを特徴とするコントローラ。 A controller that remotely controls an object and is operated by an operator in the oral cavity,
a stimulus imparting unit that imparts a stimulus to at least one of the oral cavity and the face of the operator according to the information fed back from the object;
The object is a mobile robot,
The information is information indicating that a person exists around the robot,
A controller characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013591A JP7291340B2 (en) | 2019-01-29 | 2019-01-29 | controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013591A JP7291340B2 (en) | 2019-01-29 | 2019-01-29 | controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020123070A JP2020123070A (en) | 2020-08-13 |
JP7291340B2 true JP7291340B2 (en) | 2023-06-15 |
Family
ID=71992777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019013591A Active JP7291340B2 (en) | 2019-01-29 | 2019-01-29 | controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7291340B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI801128B (en) | 2022-02-09 | 2023-05-01 | 金寶電子工業股份有限公司 | Feedback device for sense of taste, and feedback system and feedback method for using the same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213190A (en) | 2006-02-08 | 2007-08-23 | Advanced Telecommunication Research Institute International | Communication robot improvement system |
US20100204624A1 (en) | 2007-07-31 | 2010-08-12 | Universite Joseph Fourier-Grenoble 1 | Endo-buccal device for tactile stimulation and actuation |
JP2010248703A (en) | 2009-04-10 | 2010-11-04 | Ntt Docomo Inc | Control system, control method, operation control unit, and working device |
US20160154468A1 (en) | 2012-03-19 | 2016-06-02 | Dustin Ryan Kimmel | Intraoral User Interface |
JP2017146400A (en) | 2016-02-16 | 2017-08-24 | 稜威夫 永島 | Bite-in tool and its use method |
JP2018183608A (en) | 2012-08-02 | 2018-11-22 | イマージョン コーポレーションImmersion Corporation | Systems and methods for haptic remote control gaming |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5212476A (en) * | 1990-09-28 | 1993-05-18 | Maloney Sean R | Wireless intraoral controller disposed in oral cavity with electrodes to sense E.M.G. signals produced by contraction of the tongue |
-
2019
- 2019-01-29 JP JP2019013591A patent/JP7291340B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007213190A (en) | 2006-02-08 | 2007-08-23 | Advanced Telecommunication Research Institute International | Communication robot improvement system |
US20100204624A1 (en) | 2007-07-31 | 2010-08-12 | Universite Joseph Fourier-Grenoble 1 | Endo-buccal device for tactile stimulation and actuation |
JP2010248703A (en) | 2009-04-10 | 2010-11-04 | Ntt Docomo Inc | Control system, control method, operation control unit, and working device |
US20160154468A1 (en) | 2012-03-19 | 2016-06-02 | Dustin Ryan Kimmel | Intraoral User Interface |
JP2018183608A (en) | 2012-08-02 | 2018-11-22 | イマージョン コーポレーションImmersion Corporation | Systems and methods for haptic remote control gaming |
JP2017146400A (en) | 2016-02-16 | 2017-08-24 | 稜威夫 永島 | Bite-in tool and its use method |
Also Published As
Publication number | Publication date |
---|---|
JP2020123070A (en) | 2020-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Scheggi et al. | Cooperative human-robot haptic navigation | |
Vonach et al. | VRRobot: Robot actuated props in an infinite virtual environment | |
Tachi et al. | Tele-existence master-slave system for remote manipulation. II | |
EP1779820B1 (en) | Apparatus and method for controlling vehicle by teeth-clenching | |
CN107485543A (en) | Mobile travelling aided bicycle, the monitoring with mobile travelling aided bicycle and information system and the method for operating mobile travelling aided bicycle | |
JP4849244B2 (en) | Mobile robot and moving speed estimation method | |
KR101548156B1 (en) | A wireless exoskeleton haptic interface device for simultaneously delivering tactile and joint resistance and the method for comprising the same | |
JP2003079685A (en) | Auxiliary appliance for walking of visually handicapped person | |
JP2007139710A (en) | Walking-aid robot | |
WO2007132571A1 (en) | Robot | |
JP7291340B2 (en) | controller | |
US20190258239A1 (en) | Jacket for embodied interaction with virtual or distal robotic device | |
Hummel et al. | A lightweight electrotactile feedback device for grasp improvement in immersive virtual environments | |
KR101181505B1 (en) | Haptic interface having asymmetric reflecting points | |
JP4565196B2 (en) | Communication robot | |
EP3364270A1 (en) | Information processing device and information processing method | |
Ceccarelli et al. | Design issues for human-machine platform interface in cable-based parallel manipulators for physiotherapy applications | |
Li et al. | An egocentric computer vision based co-robot wheelchair | |
JP4798581B2 (en) | Robot system | |
JP2004174692A (en) | Man-machine robot and control method of man machine robot | |
JP2004042151A (en) | Communication robot | |
Javaremi et al. | Interface operation and implications for shared-control assistive robots | |
EP3966664B1 (en) | Virtual, augmented and mixed reality systems with physical feedback | |
Zhang et al. | Using the motion of the head-neck as a joystick for orientation control | |
JP2006289507A (en) | Robot device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230405 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230406 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7291340 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |