JP2023087867A - 身体誘導装置、身体誘導方法およびプログラム - Google Patents
身体誘導装置、身体誘導方法およびプログラム Download PDFInfo
- Publication number
- JP2023087867A JP2023087867A JP2021202394A JP2021202394A JP2023087867A JP 2023087867 A JP2023087867 A JP 2023087867A JP 2021202394 A JP2021202394 A JP 2021202394A JP 2021202394 A JP2021202394 A JP 2021202394A JP 2023087867 A JP2023087867 A JP 2023087867A
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- user
- guiding
- force
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 25
- 210000003205 muscle Anatomy 0.000 claims description 11
- 230000001965 increasing effect Effects 0.000 claims description 7
- 210000003128 head Anatomy 0.000 description 12
- 230000006698 induction Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000002474 experimental method Methods 0.000 description 9
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 8
- 210000000887 face Anatomy 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000001939 inductive effect Effects 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 210000001161 mammalian embryo Anatomy 0.000 description 1
- 239000011325 microbead Substances 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】身体の様々な部位を対象に向けて物理的に誘導する。【解決手段】身体誘導装置は、対象物の画像を前記ユーザに表示する表示部と、ユーザの身体の一部を前記対象物に向けて物理的に誘導する身体誘導部と、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導部の誘導力との関係を決定する誘導力決定部と、身体誘導部を制御する制御部と、を備え、制御部は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導部を制御する。【選択図】図1
Description
本開示は、身体誘導装置、身体誘導方法およびプログラムに関する。
ユーザの視線を効果的に誘導できるように3次元の誘導オブジェクトを3次元空間内の適切な位置に動的に配置することにより、ヘッドマウントディスプレイ(Head Mount Display、以下「HMD」ともいう)を装着して3次元仮想空間に没入しているユーザに対し、HMDの動作に連動した視覚的な視線誘導効果を与える技術が開発されている(例えば、特許文献1参照)。
例えば特許文献1に記載された技術は、ユーザの視線を誘導することはできるが、視線以外の身体部位を対象に向けて物理的に誘導することはできない。
本開示はこうした状況に鑑みてなされたものであり、その目的は、身体の様々な部位を対象に向けて物理的に誘導することのできる技術を提供することにある。
上記課題を解決するために、本発明のある態様の身体誘導装置は、ユーザの身体の一部を誘導する装置であって、対象物の画像をユーザに表示する表示部と、ユーザの身体の一部を対象物に向けて物理的に誘導する身体誘導部と、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導部の誘導力との関係を決定する誘導力決定部と、身体誘導部を制御する制御部と、を備える。制御部は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導部を制御する。
本発明の別の態様は、ユーザの身体の一部を誘導する身体誘導方法である。この方法は、表示手段を用いて、対象物の画像をユーザに表示するステップと、誘導力決定手段を用いて、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップと、制御手段を用いて、身体誘導手段を制御するステップと、身体誘導手段を用いて、ユーザの身体の一部を対象物に向けて物理的に誘導するステップと、を含む。制御手段は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導手段を制御する。
本発明のさらに別の態様は、プログラムである。このプログラムは、表示手段を用いて、対象物の画像をユーザに表示するステップと、誘導力決定手段を用いて、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップと、制御手段を用いて、身体誘導手段を制御するステップと、身体誘導手段を用いて、ユーザの身体の一部を対象物に向けて物理的に誘導するステップと、を含む方法をコンピュータに実行させる。制御手段は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導手段を制御する。
なお、以上の構成要素の任意の組合せ、本開示の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。
本開示によれば、身体の様々な部位を対象に向けて物理的に誘導することができる。
[第1の実施の形態]
図1に、第1の実施の形態に係る身体誘導装置1の機能ブロック図を示す。身体誘導装置1は、表示部10と、誘導力決定部20と、制御部30と、身体誘導部40と、を備える。
図1に、第1の実施の形態に係る身体誘導装置1の機能ブロック図を示す。身体誘導装置1は、表示部10と、誘導力決定部20と、制御部30と、身体誘導部40と、を備える。
表示部10は、対象物の画像をユーザに対して表示する。本明細書における対象物とは、ユーザが目視で確認しながら、操作、処理、作成等の作業を行う対象となる物である。対象物の具体例としては、顕微鏡で観測される微生物や細胞、微細な精密機器の部品などがある。このような場合、ユーザは、微小な対象物の顕微鏡画像を目視で確認しながら、必要な作業を行う。表示部は、例えばHMD、液晶ディスプレイ、ビデオプロジェクタなどの任意の好適な表示デバイスであってよい。表示部に表示される画像は、現実の画像の他、MR(複合現実)、VR(仮想現実)、AR(拡張現実)といったXR(クロスリアリティ)の画像であってもよい。特に表示部は、現実世界と仮想世界とが融合したMRの画像を表示するためのHMDであると有用である。
誘導力決定部20は、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導部40の誘導力との関係を決定する。ここでユーザの身体の一部は、例えば、頭、上半身、下半身、手、指、腹、腰、足などであってもよい。さらに身体の一部が向く向きは、視線が向く方向、手や指や足の先が指す方向、頭部や腹部や腰部の前額面や矢状面や水平面の法線方向、身体の関節部位に対する特定の方向などであってもよい。
以下、本明細書では、ユーザの身体の一部を対象物に向けて誘導して動かすときの力を「誘導力」と呼ぶ。誘導力は、一般に、動かす範囲が大きければ大きいほど、大きい力が必要であることが推察される。さらに誘導力は、ユーザの体格、筋力などの肉体的特徴、運動感覚などの心理的特徴に依存する。従って、ユーザの身体の一部を誘導して動かす範囲と、必要な誘導力との関係は、当該ユーザごとに決定する必要がある。図2に、こうした関係を決定するための誘導力決定部20の動作を模式的に示す。
図20は、ユーザの身体の一部としての頭部を上から見た模式図である。頭部が向く向きとしてユーザの視線を選び、これを矢印g0、g1、g2、…、g10で表す。ここで矢印g0は、ユーザの現在の視線(すなわち、ユーザの身体の一部が現在向く向き)である。矢印g1、g2、…、g10は、頭部に加える誘導力(ここでは、頭部を鉛直軸周りに、上から見て時計回りに回転させる力)を少しずつ変えて当該頭部を動かしたときの、それぞれの視線を示す。これは、視線g1、g2、…、g10の先に、各誘導力に対応した対象物が存在することに相当する。角度θ1、θ2、…、θ10は、それぞれ、g1、g2、…、g10と、g0とのなす角度(すなわち、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度)である。視線g1、g2、…、g10に対応する誘導力を、それぞれP1、P2、…、P10とする。この例では、誘導力Pとθとの間に以下の関係が成り立つと仮定する。すなわち、Pは、θの1次式で表されると仮定する。
P=f(θ)=a・θ+b・・・(1)
このとき誘導力決定部20は、実測したθnおよびPn(n=1、…、10)を基に、最小二乗法を適用することにより、係数aおよびbを決定する。以下、(1)のようなθとPとの関係を表す関係式f(θ)を「決定方程式」と呼ぶ。
P=f(θ)=a・θ+b・・・(1)
このとき誘導力決定部20は、実測したθnおよびPn(n=1、…、10)を基に、最小二乗法を適用することにより、係数aおよびbを決定する。以下、(1)のようなθとPとの関係を表す関係式f(θ)を「決定方程式」と呼ぶ。
前述のように、一般にはθが大きければ大きいほどPは大きいので、係数aは正の値として求まる。すなわち、一般にf(θ)は、θの単調増加関数である。
上記の例では、決定方程式におけるf(θ)の関数形として1次関数を仮定した。しかしこれに限られず、f(θ)は、指数関数、多次関数(部分域)、シグモイド関数(部分域)、ロジスティック関数(部分域)などの任意の好適な単調増加関数であってもよい。
図3および4に、身体誘導装置1が複数の誘導方向を持つときの、誘導力決定部20の動作を模式的に示す。図3および4は、ユーザの頭部を上から見た模式図である。図3および4では、ユーザの頭部の左側面から右側面を向かう向きにx軸、ユーザの頭部の下から上に向かう向きにy軸、ユーザの頭部の後から前に向かう向きにz軸を取る。下付き添字kは、誘導方向の種類を示す。具体的には、この例では、k=1はy軸回りの正の回転(頭部を左にひねる誘導)、k=2はy軸回りの負の回転(頭部を右にひねる誘導)、k=3はx軸回りの正の回転(頭部を前に傾ける誘導)、k=4はx軸回りの負の回転(頭部を後に傾ける誘導)を示す。このとき決定方程式は、以下のように表される。
Pk=fk(θk)=ak・θk+bk (k=1、…、4)・・・(2)
係数akおよびbkは、実測したθk nおよびPk n(n=1、…、10)を基に、最小二乗法を適用することにより決定される。
Pk=fk(θk)=ak・θk+bk (k=1、…、4)・・・(2)
係数akおよびbkは、実測したθk nおよびPk n(n=1、…、10)を基に、最小二乗法を適用することにより決定される。
以上の説明では、f(θ)の関数形として、最も効果的と考えられる単調増加関数を例に挙げた。しかしこれに限られず、f(θ)は、振動的な関数、極値を持つ関数など任意の好適な関数であってもよい。
前述のように、ユーザの身体の一部を誘導して動かす範囲と、必要な誘導力との関係が当該ユーザごとに、決定方程式により決定される。しかしながら、この関係を用いて誘導を行っても、例えば実際の使用時の対象物の状態やユーザの肉体的または心理的状態などが異なると、必ずしも目標通りの正確な誘導が実現できるとは限らない。すなわち、決定方程式で決定された関係を初期条件として用いただけでは、決定された誘導力と実際に必要な誘導力との間に差異が生じる可能性がある。
これを解決するために、本実施の形態の制御部30は、以下に説明するようなフィードバックを用いて身体誘導部40を制御する。図5に、制御部30が実行するフィードバック制御を模式的に示す。制御部30には、誘導力決定部20が決定した誘導力が目標誘導力として入力する。目標誘導力は、身体誘導部40に入力してユーザの身体の一部を誘導する。その後、ユーザで観測される現在の角度と目標とする角度との差異を基に、決定方程式を用いて、現在の角度に相当する誘導力が決定される。この現在の角度に相当する誘導力が、フィードバックゲインとして、目標誘導力に加算される。このようなフィードバックループを作ることにより、決定された誘導力と実際に必要な誘導力との間の差異が補正される。以上のフィードバックは、以下のように表すことができる。
Pk t=fk(θk t)+G(fk(θk t)-fk(θk)) (k=1、…、4)・・・(3)
ここで、Gはフィードバックゲインの大きさを定める係数である。
Pk t=fk(θk t)+G(fk(θk t)-fk(θk)) (k=1、…、4)・・・(3)
ここで、Gはフィードバックゲインの大きさを定める係数である。
以上述べたように、制御部30は、誘導中の角度をフィードバックすることにより、決定方程式で決定された関係を用いて、誘導力を調整して身体誘導部40を制御する。
身体誘導部40は、ユーザの身体の一部を対象物に向けて物理的に誘導する。
以上説明したように、本実施の形態によれば、身体の様々な部位を対象に向けて物理的に誘導することができる。
[身体誘導装置の具体的な実装例]
以下、ユーザが装着する着衣に取り付けられ、人工筋で駆動されるアクチュエータとして実装した身体誘導部を例として、身体誘導装置を具体的に説明する。図6~10は、このような身体誘導部を示す図である。図6は、身体誘導装置全体の模式図である。図7は、身体誘導部を含む身体誘導装置全体の写真である。図8は、身体誘導部を含む着衣の前面の写真である。図9は、身体誘導部を含む着衣の後面の写真である。図10は、身体誘導部を含む着衣を装着したユーザの写真である。図10では、操作者の膝の上に、後述する実験用のキーボードが載っている。
以下、ユーザが装着する着衣に取り付けられ、人工筋で駆動されるアクチュエータとして実装した身体誘導部を例として、身体誘導装置を具体的に説明する。図6~10は、このような身体誘導部を示す図である。図6は、身体誘導装置全体の模式図である。図7は、身体誘導部を含む身体誘導装置全体の写真である。図8は、身体誘導部を含む着衣の前面の写真である。図9は、身体誘導部を含む着衣の後面の写真である。図10は、身体誘導部を含む着衣を装着したユーザの写真である。図10では、操作者の膝の上に、後述する実験用のキーボードが載っている。
図6および7の表示部は、MR型HMDで構成される。誘導力決定部は、PCにより実行されるソフトウェアプログラムとして実装される。身体誘導部は、ユーザが装着する着衣に取り付けられ、12個の人工筋で駆動されるアクチュエータとして実装される。人工筋は、エアコンプレッサーから供給される圧縮空気で作動する。人工筋は、エアコンプレッサーからの空気圧が高ければ高いほど強く収縮し大きな誘導力を発揮する。制御部は、エアコンプレッサーの空気圧を制御する。
アクチュエータを駆動する12個の人工筋のうち、2つはユーザの上半身を左にひねるように誘導し、2つはユーザの上半身を右にひねるように誘導し、4つはユーザの上半身を前に傾けるように誘導し、4つはユーザの上半身を後に傾けるように誘導する。
以上の例では、身体誘導部は、布状の着衣タイプのアクチュエータであった。しかしこれに限られず、身体誘導部は、外骨格型のマッスルスーツや、機能的電気刺激を利用したモーションコントローラなどの任意の好適な構成であってもよい。
[身体誘導装置の利用シーンの例]
実際の利用シーンとして、図7の身体誘導装置を用いて、遠隔地にある微小な対象物を操作するときの例を説明する。図7の身体誘導装置の表示部はMR型HMDで構成されるため、ユーザには現実世界と仮想世界とが融合された画像が表示される。図11は、図7の身体誘導装置を装着したユーザに表示される画像である。図12は、表示される仮想世界を構成する画像(遠隔地にあるブタ胚の顕微鏡画像)である。すなわちユーザは、あたかも周囲の風景(現実世界)の中に、遠隔地にある対象物(仮想世界)が存在するかのような体験をする。このとき身体誘導装置が、対象物に向けてユーザの身体を誘導するため、ユーザは違和感を覚えることなく、微小な対象物を的確に操作することができる。
実際の利用シーンとして、図7の身体誘導装置を用いて、遠隔地にある微小な対象物を操作するときの例を説明する。図7の身体誘導装置の表示部はMR型HMDで構成されるため、ユーザには現実世界と仮想世界とが融合された画像が表示される。図11は、図7の身体誘導装置を装着したユーザに表示される画像である。図12は、表示される仮想世界を構成する画像(遠隔地にあるブタ胚の顕微鏡画像)である。すなわちユーザは、あたかも周囲の風景(現実世界)の中に、遠隔地にある対象物(仮想世界)が存在するかのような体験をする。このとき身体誘導装置が、対象物に向けてユーザの身体を誘導するため、ユーザは違和感を覚えることなく、微小な対象物を的確に操作することができる。
[対象物のサイズ]
上記の例では、表示部に表示される対象物の画像(顕微鏡写真)は、微小なサイズの対象物を拡大したものであった。しかしこれに限られず、対象物の画像は、実際のサイズとほぼ等しいものや、巨大なサイズの対象物を縮小したものであってもよい。例えば、微小なサイズの対象物には、生物の細胞、精密機械の部品、マイクロビーズなどがある。一方、巨大なサイズの対象物には、建設機械、重機などがある。
上記の例では、表示部に表示される対象物の画像(顕微鏡写真)は、微小なサイズの対象物を拡大したものであった。しかしこれに限られず、対象物の画像は、実際のサイズとほぼ等しいものや、巨大なサイズの対象物を縮小したものであってもよい。例えば、微小なサイズの対象物には、生物の細胞、精密機械の部品、マイクロビーズなどがある。一方、巨大なサイズの対象物には、建設機械、重機などがある。
決定方程式が決定する関係式は、こうした対象物のサイズを反映したものであってもよい。例えば、微小なサイズの対象物の場合は、流体における粘性項が支配的となるため、決定方程式はこれを反映したものとなる。一方、巨大なサイズの対象物の場合は、慣性項が支配的となるため、決定方程式はこれを反映したものとなる。
[視線を対象物に誘導するための画像をさらに表示する実施例]
発展的な実施例として、表示部は、ユーザの視線を前記対象物に誘導するための画像をさらに表示してもよい。図13に、表示部に表示された対象物に加えて、ユーザの視線を当該対象物に誘導するための画像を示す。画像の中で複数存在する球体のうちの1つが対象物である。対象物以外の球体は実験用のダミーである。矢印状のアイコンで示される画像は、ユーザの視線を対象物に誘導するための画像である。
発展的な実施例として、表示部は、ユーザの視線を前記対象物に誘導するための画像をさらに表示してもよい。図13に、表示部に表示された対象物に加えて、ユーザの視線を当該対象物に誘導するための画像を示す。画像の中で複数存在する球体のうちの1つが対象物である。対象物以外の球体は実験用のダミーである。矢印状のアイコンで示される画像は、ユーザの視線を対象物に誘導するための画像である。
この実施例の効果を検証するために、図7の身体誘導装置を装着した被検者による実験を行った。実験の方法は以下の通りである。表示部には、1個の目標対象物と100個のダミー対象物が表示される。これらの目標対象物とダミー対象物は、それぞれ、上下方向、左右方向、前後方向にランダムに運動する。被験者は、目標対象物を探し、目標対象物を認識したらキーボードのボタンを押すように指示される。キーボードのボタンが押されると、目標対象物は初期位置に戻る。以下では、身体誘導装置による誘導を「物理的誘導」と呼び、ユーザの視線を誘導するための画像による誘導を「視線誘導」と呼ぶ。実験は、「物理的誘導も視線誘導もない」「物理的誘導のみで誘導」「視線誘導のみで誘導」「物理的誘導および視線誘導の共存」の4つの条件下で行われる。1人の被験者に対し、この実験が条件ごとに40回繰り返される。以下、6名の被験者に対して行った実験結果を示す。
図14および15に、上記の実験の結果を示す。図14は、上記の4つの条件下で、6名の被験者が認識した目標対象物の個数のばらつきを示すグラフである。図15は、上記の4つの条件下で、6名の被験者がそれぞれ認識した目標対象物の平均個数を示す表である。これらの結果から、物理的誘導がある場合の方が、誘導がまったくない場合と比べ、目標対象物を多く認識できていることが分かる。さらに、物理的誘導と視線誘導が共存する場合の方が、物理的誘導のみの場合と比べ、目標対象物を多く認識できていることが分かる。なお本実験では、視線誘導のみの場合の方が、物理的誘導のみの場合と比べ、目標対象物を多く認識できている。これは、本実験が、専らユーザの目による対象物認識を用いた方法によることが原因であると考えられる。
[身体誘導による作業の効率化]
本実施の形態の応用例として、視線、体幹、四肢などの複数の身体誘導を連続して行うことにより、対象物に対する作業を効率化するものがある。例えば「離れたところにある対象物に接近し、これを拾って仮想空間上の箱に投げ入れる」という作業を考えた場合、身体誘導は以下のようになる。
身体誘導(1):ユーザを対象物の方向に向かせる。
身体誘導(2):ユーザを対象物に向かって歩かせる。
身体誘導(3):対象物をユーザの両手で拾わせる。
身体誘導(4):対象物を仮想空間上の箱に投げ入れさせる。
身体誘導(5):ユーザを別の方向に向かせる。
この利用例によれば、例えばマニュアル化した場合長文となる複雑な作業手順や、言語化するには難しい微妙な動作を含む作業を効率化することができる。
本実施の形態の応用例として、視線、体幹、四肢などの複数の身体誘導を連続して行うことにより、対象物に対する作業を効率化するものがある。例えば「離れたところにある対象物に接近し、これを拾って仮想空間上の箱に投げ入れる」という作業を考えた場合、身体誘導は以下のようになる。
身体誘導(1):ユーザを対象物の方向に向かせる。
身体誘導(2):ユーザを対象物に向かって歩かせる。
身体誘導(3):対象物をユーザの両手で拾わせる。
身体誘導(4):対象物を仮想空間上の箱に投げ入れさせる。
身体誘導(5):ユーザを別の方向に向かせる。
この利用例によれば、例えばマニュアル化した場合長文となる複雑な作業手順や、言語化するには難しい微妙な動作を含む作業を効率化することができる。
[第2の実施の形態]
図16に、第2の実施の形態に係る身体誘導方法のフローチャートを示す。この方法は、表示手段と、誘導力決定手段と、制御手段と、身体誘導手段と、を用いて、ユーザの身体の一部を誘導する方法であり、ステップS1と、ステップS2と、ステップS3と、ステップS4と、を含む。
図16に、第2の実施の形態に係る身体誘導方法のフローチャートを示す。この方法は、表示手段と、誘導力決定手段と、制御手段と、身体誘導手段と、を用いて、ユーザの身体の一部を誘導する方法であり、ステップS1と、ステップS2と、ステップS3と、ステップS4と、を含む。
ステップS1で本方法は、表示手段を用いて、対象物の画像をユーザに表示する。ステップS2で本方法は、誘導力決定手段を用いて、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定する。ステップS3で本方法は、制御手段を用いて、身体誘導手段を制御する。ステップS4で本方法は、身体誘導手段を用いて、ユーザの身体の一部を対象物に向けて物理的に誘導する。制御手段は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導手段を制御する。表示手段、誘導力決定手段、制御手段および身体誘導手段の構成と動作は、第1の実施の形態で説明した通りなので、詳しい説明は省略する。
本実施の形態によれば、身体の様々な部位を対象に向けて物理的に誘導することができる。
[第3の実施の形態]
第3の実施の形態はプログラムである。このプログラムは、前述の第2の実施の形態に係る方法をコンピュータに実行させる。本実施の形態によれば、身体の様々な部位の対象に向けた物理的に誘導を、コンピュータのソフトウェアとして実現することができる。
第3の実施の形態はプログラムである。このプログラムは、前述の第2の実施の形態に係る方法をコンピュータに実行させる。本実施の形態によれば、身体の様々な部位の対象に向けた物理的に誘導を、コンピュータのソフトウェアとして実現することができる。
[本開示の各態様]
本開示のある態様の身体誘導装置は、対象物の画像をユーザに表示する表示部と、ユーザの身体の一部を対象物に向けて物理的に誘導する身体誘導部と、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導部の誘導力との関係を決定する誘導力決定部と、身体誘導部を制御する制御部と、を備える。制御部は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導部を制御する。
本開示のある態様の身体誘導装置は、対象物の画像をユーザに表示する表示部と、ユーザの身体の一部を対象物に向けて物理的に誘導する身体誘導部と、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導部の誘導力との関係を決定する誘導力決定部と、身体誘導部を制御する制御部と、を備える。制御部は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導部を制御する。
この態様によれば、身体の様々な部位を対象に向けて物理的に誘導することができる。
上記の関係は、誘導力が角度の単調増加関数として表されるものであってもよい。
この態様によれば、決定方程式として具体的な単調増加型の関数を与えることにより、身体誘導を実現することができる。
表示部に表示される対象物の画像は、実際の対象物を拡大または縮小したものであってもよい。
この態様によれば、身の回りに存在して手に触れることのできる物と異なるサイズの対象物(例えば微小なサイズの対象物や巨大なサイズの対象物)を違和感なく認識し、操作することができる。
表示部は、ユーザの視線を対象物に誘導するための画像をさらに表示してもよい。
この態様によれば、対象物に向けての物理的な身体誘導に加えて、視覚による視線誘導を行うので、より正確な身体誘導を実現することができる。
身体誘導部は、ユーザが装着する着衣に取り付けられ、人工筋で駆動されるアクチュエータを備えたものであり、制御部は、人工筋の出力を制御することにより、身体誘導部を制御してもよい。
この態様によれば、身体誘導装置の具体的な構成を与えることができる。
本開示のある態様の身体誘導方法は、表示手段を用いて、対象物の画像をユーザに表示するステップと、誘導力決定手段を用いて、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップと、制御手段を用いて、身体誘導手段を制御するステップと、身体誘導手段を用いて、ユーザの身体の一部を対象物に向けて物理的に誘導するステップと、を含む。制御手段は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導手段を制御する。
この態様によれば、身体の様々な部位を対象に向けて物理的に誘導することができる。
本開示のある態様のプログラムは、表示手段を用いて、対象物の画像をユーザに表示するステップと、誘導力決定手段を用いて、ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップと、制御手段を用いて、身体誘導手段を制御するステップと、身体誘導手段を用いて、ユーザの身体の一部を対象物に向けて物理的に誘導するステップと、を含む方法をコンピュータに実行させる。制御手段は、誘導中の前記角度をフィードバックすることにより、上記の関係を用いて誘導力を調整して身体誘導手段を制御する。
この態様によれば、身体の様々な部位の対象に向けた物理的に誘導を、コンピュータのソフトウェアとして実現することができる。
以上、本開示を実施例を基に説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合わせに、色々な変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
例えば第1の実施の形態においては、表示部、誘導力決定部、制御部、身体誘導部が一つの身体誘導装置に一体化されているものとして説明した。しかしこれらの構成は、その一部または全部が別体として遠隔地に配置され、これらの構成同士が互いに通信することにより、全体の機能が実現されてもよい。この変形によれば、構成の自由度を上げることができる。
以上、実施の形態及び変形例を説明した。実施の形態及び変形例を抽象化した技術的思想を理解するにあたり、その技術的思想は実施の形態及び変形例の内容に限定的に解釈されるべきではない。前述した実施の形態及び変形例は、いずれも具体例を示したものにすぎず、構成要素の変更、追加、削除等の多くの設計変更が可能である。実施の形態では、このような設計変更が可能な内容に関して、「実施の形態」との表記を付して強調している。しかしながら、そのような表記のない内容でも設計変更が許容される。
1・・身体誘導装置、10・・表示部、20・・誘導力決定部、30・・制御部、40・・身体誘導部、S1・・対象物の画像をユーザに表示するステップ、S2・・ユーザの身体の一部が対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップ、S3・・身体誘導手段を制御するステップ、S4・・ユーザの身体の一部を誘導するステップ。
Claims (7)
- ユーザの身体の一部を誘導する装置であって、
対象物の画像を前記ユーザに表示する表示部と、
前記ユーザの身体の一部を前記対象物に向けて物理的に誘導する身体誘導部と、
前記ユーザの身体の一部が前記対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と前記身体誘導部の誘導力との関係を決定する誘導力決定部と、
前記身体誘導部を制御する制御部と、
を備え、
前記制御部は、誘導中の前記角度をフィードバックすることにより、前記関係を用いて前記誘導力を調整して前記身体誘導部を制御することを特徴とする身体誘導装置。 - 前記関係は、前記誘導力が前記角度の単調増加関数として表されるものであることを特徴とする請求項1に記載の身体誘導装置。
- 前記表示部に表示される対象物の画像は、実際の対象物を拡大または縮小したものであることを特徴とする請求項1または2に記載の身体誘導装置。
- 前記表示部は、前記ユーザの視線を前記対象物に誘導するための画像をさらに表示することを特徴とする請求項1から3のいずれかに記載の身体誘導装置。
- 前記身体誘導部は、前記ユーザが装着する着衣に取り付けられ、人工筋で駆動されるアクチュエータを備え、
前記制御部は、前記人工筋の出力を制御することにより、前記身体誘導部を制御することを特徴とする請求項1から4のいずれかに記載の身体誘導装置。 - ユーザの身体の一部を誘導する方法であって、
表示手段を用いて、対象物の画像を前記ユーザに表示するステップと、
誘導力決定手段を用いて、前記ユーザの身体の一部が前記対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップと、
制御手段を用いて、前記身体誘導手段を制御するステップと、
前記身体誘導手段を用いて、前記ユーザの身体の一部を前記対象物に向けて物理的に誘導するステップと、
を含み、
前記制御手段は、誘導中の前記角度をフィードバックすることにより、前記関係を用いて前記誘導力を調整して前記身体誘導手段を制御することを特徴とする身体誘導方法。 - ユーザの身体の一部を誘導する方法をコンピュータに実行させるプログラムであって、
表示手段を用いて、対象物の画像を前記ユーザに表示するステップと、
誘導力決定手段を用いて、前記ユーザの身体の一部が前記対象物に対して向く向きと、当該身体の一部が現在向く向きとがなす角度に関し、当該角度と身体誘導手段の誘導力との関係を決定するステップと、
制御手段を用いて、前記身体誘導手段を制御するステップと、
前記身体誘導手段を用いて、前記ユーザの身体の一部を前記対象物に向けて物理的に誘導するステップと、
を含む方法をコンピュータに実行させ、
前記制御手段は、誘導中の前記角度をフィードバックすることにより、前記関係を用いて前記誘導力を調整して前記身体誘導手段を制御することを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021202394A JP2023087867A (ja) | 2021-12-14 | 2021-12-14 | 身体誘導装置、身体誘導方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021202394A JP2023087867A (ja) | 2021-12-14 | 2021-12-14 | 身体誘導装置、身体誘導方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023087867A true JP2023087867A (ja) | 2023-06-26 |
Family
ID=86899718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021202394A Pending JP2023087867A (ja) | 2021-12-14 | 2021-12-14 | 身体誘導装置、身体誘導方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023087867A (ja) |
-
2021
- 2021-12-14 JP JP2021202394A patent/JP2023087867A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8880223B2 (en) | Anthro-centric multisensory interface for sensory augmentation of telesurgery | |
Khurshid et al. | Effects of grip-force, contact, and acceleration feedback on a teleoperated pick-and-place task | |
CN107111682B (zh) | 集成用户环境 | |
US9492920B2 (en) | Control apparatus and control method for master-slave robot, master-slave robot, control program for master-slave robot, and integrated electronic circuit for controlling master-slave robot | |
CN107106245A (zh) | 用户界面与主控制器之间的交互作用 | |
JP2010201111A (ja) | 上肢リハビリテーション支援装置 | |
CN109416589A (zh) | 交互系统与交互方法 | |
Milstein et al. | Human-centered transparency of grasping via a robot-assisted minimally invasive surgery system | |
Chan et al. | A multimodal system using augmented reality, gestures, and tactile feedback for robot trajectory programming and execution | |
Panzirsch et al. | Tele-healthcare with humanoid robots: A user study on the evaluation of force feedback effects | |
Nakanishi et al. | Synchronous and asynchronous manipulation switching of multiple robotic embodiment using EMG and eye gaze | |
JP2023087867A (ja) | 身体誘導装置、身体誘導方法およびプログラム | |
Rodrigues et al. | Amp-it and wisdom: Improving 3d manipulation for high-precision tasks in virtual reality | |
Bian et al. | Interface design of a human-robot interaction system for dual-manipulators teleoperation based on virtual reality | |
Sato et al. | Micro-teleoperation with manual task execution posture | |
Wongphati et al. | Gestures for manually controlling a helping hand robot | |
Kamikawa et al. | Magnified force sensory substitution for telemanipulation via force-controlled skin deformation | |
Van Erp et al. | Control performance with three translational degrees of freedom | |
Smith et al. | An augmented reality interface for teleoperating robot manipulators: Reducing demonstrator task load through digital twin control | |
Takahashi et al. | A Novel Soft Exoskeleton Glove for Motor Skill Acquisition Similar to Anatomical Structure of Forearm Muscles | |
Sato et al. | Micro teleoperation system concentrating visual and force information at operator's hand | |
CN207643147U (zh) | 一种用于操控机器人的手持人机交互设备 | |
Omarali | Exploring Robot Teleoperation in Virtual Reality | |
Jonetzko et al. | Evaluating Visual and Auditory Substitution of Tactile Feedback During Mixed Reality Teleoperation | |
Mitsuishi et al. | A human interface which enables natural view selection during tele-micro-surgery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241022 |