JP2014222495A - インタフェース装置 - Google Patents
インタフェース装置 Download PDFInfo
- Publication number
- JP2014222495A JP2014222495A JP2013114670A JP2013114670A JP2014222495A JP 2014222495 A JP2014222495 A JP 2014222495A JP 2013114670 A JP2013114670 A JP 2013114670A JP 2013114670 A JP2013114670 A JP 2013114670A JP 2014222495 A JP2014222495 A JP 2014222495A
- Authority
- JP
- Japan
- Prior art keywords
- laser pointer
- coordinate
- display
- coordinate system
- cursor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】ハンズフリーで介護者への意思伝達・指示が可能なインタフェース装置を提供する。
【解決手段】頭部動作にてPCのマウスのように画面内カーソル移動・クリック・ドラッグ等のGUI操作を実現すると共に、物理的に駆動可能なレーザポインタを用いて実物体にレーザを投射することで、PC画面と実世界との境目の無い一元的なハンズフリーのインタフェース装置である。PCと実世界両者へのポインティングを可能にすることで、寝たきり患者などが介護者および介護ロボットへの意思表示が簡単になり、直観的にわかりやすい意思疎通が可能になる。
【選択図】図1
【解決手段】頭部動作にてPCのマウスのように画面内カーソル移動・クリック・ドラッグ等のGUI操作を実現すると共に、物理的に駆動可能なレーザポインタを用いて実物体にレーザを投射することで、PC画面と実世界との境目の無い一元的なハンズフリーのインタフェース装置である。PCと実世界両者へのポインティングを可能にすることで、寝たきり患者などが介護者および介護ロボットへの意思表示が簡単になり、直観的にわかりやすい意思疎通が可能になる。
【選択図】図1
Description
本発明は、ハンズフリーで介護者および介護用ロボットへの意思伝達・指示が可能なインタフェース装置、特に、パーソナルコンピュータ(以下PCという)のマウス操作及び部屋のあちこちに存在する実物体を指し示す行為の両者に対して、PC内部と外部を連続的・双方向に移動させ、幅広い意思表示を可能とするハンズフリーのインタフェース装置に関する。
近時、超高齢社会を迎え、四肢の不自由な運動弱者や身体障害者の支援、特に寝たきり患者の介護が深刻な社会問題となっている。PCのマウスを使うことや会話が困難な患者も多く、彼らの意思を正確に汲み取ることが介護者の最優先の仕事である。一方、近い将来には介護者の仕事の内、ごく単純な作業に関しては、介護支援ロボットに代替させることが期待されている。このような背景の下、四肢の運動機能が衰えた場合でも、能力が維持されている眼球や頭部の運動を計測することで被介護者の意思を伝達するためのハンズフリーインタフェースに関する研究が行われている。
寝たきり患者は、周りに実在する医療機器・家電製品・生活用品・食料品等に囲まれて生活しており、その中で使用したい器具、興味のある物品等実物体を介護者(将来は介護支援ロボット)に的確に伝えることが円滑な日常生活を送る上で必須である。一方、PCはインターネットを含めたサイバー空間への入り口であり、彼らの精神活動範囲を無限に広げる意味で重要である。前者の実世界インタフェースに関しては、例えば、レーザポインタを顔面に装着し実世界の物体をポインティングすることで、被介護者が興味ある実物体を介護者に伝えるようなハンズフリーインタフェースが提案されている。後者のPC操作インタフェースに関しては、視線・頭部・顔の動き等を計測することで、ハンズフリーに操作するための方式が研究されている。
寝たきり患者の欲求を満たすことは介護者の最優先の仕事である。しかし、健常者や障害の軽い人ならば指さし等で身の回りの物を指して簡単に意思表示ができることでも、寝たきりでは簡単にはできないため意思を読み取るのは難しく、介護者も被介護者ももどかしく感じている。また、被介護者の人口増に、介護者の数が追いついていないという問題もある。
そんな中、ロボティックルームという概念がある(非特許文献1)。病室全体にさまざまなロボットを配置してお茶汲みやゴミ拾いなど細かい動作をロボットにさせ、介護者の負担や被介護者側の精神的負担を減らそうという概念である。被介護者が自分の意思でロボットに指示を与えることを可能にすることで、被介護者の意図する要求を正確に満たすことができ、介護者の負担軽減につながる。このような事情から、被介護者が介護者に簡単に意思を伝えることができ、さらに介護用ロボットへ自分の意思を伝えて介護を行うシステムが望まれている。
関連する先行技術として次のようなものがある。
ハンズフリーインタフェース
頚椎損傷者等の上肢運動能力が衰えた人でも使用可能な、頭部動作を利用した様々なハンズフリー入力インタフェースが開発されている。以下にその例を挙げる。
ハンズフリーインタフェース
頚椎損傷者等の上肢運動能力が衰えた人でも使用可能な、頭部動作を利用した様々なハンズフリー入力インタフェースが開発されている。以下にその例を挙げる。
頭部に3つの超音波送信機を固定し、3次元座標を求めることで頭部の傾きをカーソルの位置に対応させる方式が提案されている(非特許文献2)。また、頭部にジャイロセンサを装着し、頭部の傾きによってカーソルの移動、口の開閉動作を利用して移動とクリックのモード切替を行う方式が提案されている(非特許文献3)。ジャイロセンサ等を利用した3次元モーションセンサを装着し、音声対話に伴う頭部動作を測定し、音声入力の意思表示の補助を行うシステムも公知である(非特許文献4)。頭部にとりつけたレーザポインタの照射点をカメラで認識し、PCのカーソル操作を実現するシステムが提案されており、CT(クリックタイム)とスループット(Throughput)という客観的指標で評価されている(非特許文献5)。以上の非特許文献2〜5に開示の技術は、いずれも頭部動作計測用のセンサを装着する必要があり、非侵襲ではないため長時間の使用には適さず、手の使えない障害者は自由な着脱が難しいという問題がある。
顔に計器をつける必要のないハンズフリーインタフェースも研究されている。例えば、眼球部位をカメラにより検出し、頭部の傾きをカーソルの移動方向に対応させることでカーソル位置を制御する方式である(非特許文献6)。しかし、この方式では、照明条件によっては眼球部位の画像認識が困難となるという問題がある。
顔面に張ったシールを検知し、頭の動きを直接PCのカーソルの動きに変換する機能をもったハンズフリーのマウスが市販されている(商品名TrackerPro)。これは、専用のシールを顔面に張らなければならず、またクリック操作ができない。
実世界ポインティング
意思伝達システム
高度の頚髄損傷者向けに頭に取りつけたレーザ光を実世界上のキーボード代用装置のセンサに当てることで意思伝達ができるシステムが提案されている(非特許文献7)。また、コミュニケーション・ボードやコミュニケーション・ブックという文字やシンボル、写真を並べて、指さしなどで選ぶことで、コミュニケーションを補助する支援教材も一般に普及し使われている(非特許文献8)。
意思伝達システム
高度の頚髄損傷者向けに頭に取りつけたレーザ光を実世界上のキーボード代用装置のセンサに当てることで意思伝達ができるシステムが提案されている(非特許文献7)。また、コミュニケーション・ボードやコミュニケーション・ブックという文字やシンボル、写真を並べて、指さしなどで選ぶことで、コミュニケーションを補助する支援教材も一般に普及し使われている(非特許文献8)。
遠隔指示
遠隔地にいる作業者に指示者が作業を指示するためのシステムとして、作業地に配置したロボットにレーザポインタを取りつけ、指示者が作業地のカメラ映像を見ながら物体をポインティングさせて指示する遠隔作業指示支援システム(商品名GestureMan)が開発されている(非特許文献9,10)。また、実物体にプロジェクタ光を照射することで遠隔地にいる相手に自分の興味対象物を伝えるシステムが開発されている。
遠隔地にいる作業者に指示者が作業を指示するためのシステムとして、作業地に配置したロボットにレーザポインタを取りつけ、指示者が作業地のカメラ映像を見ながら物体をポインティングさせて指示する遠隔作業指示支援システム(商品名GestureMan)が開発されている(非特許文献9,10)。また、実物体にプロジェクタ光を照射することで遠隔地にいる相手に自分の興味対象物を伝えるシステムが開発されている。
ロボットへの指示方法
ロボットへの指示方法として、車椅子利用者などの足の不自由な患者を想定してレーザポインタでポインティングした物体をロボットにとらせる方法が開発されている(非特許文献11)。また、コマンドつきのレーザポインタを用いて、複数指示可能なロボット操作システムが開発されている(非特許文献12)。このことから、人やロボットへ指示するために、レーザポインタやプロジェクタ光等を物体に照射することは、指示対象が明確になり有用である。
ロボットへの指示方法として、車椅子利用者などの足の不自由な患者を想定してレーザポインタでポインティングした物体をロボットにとらせる方法が開発されている(非特許文献11)。また、コマンドつきのレーザポインタを用いて、複数指示可能なロボット操作システムが開発されている(非特許文献12)。このことから、人やロボットへ指示するために、レーザポインタやプロジェクタ光等を物体に照射することは、指示対象が明確になり有用である。
ハンズフリーインタフェースに関しては、実世界へのポインティングは不可能である。非特許文献5に記載の技術では実世界へのポインティングが可能であるが、そのような用途を意図していない。非特許文献7に記載の技術はハンズフリーインタフェースでキーボード入力も可能であるが、画面外ポインティングは想定していない。また、頭部につけられたレーザポインタでポインティングするため、狭い範囲のみのポインティングしかできない。コミュニケーション・ボードは指等でのポインティングによる意思伝達であるから、PC操作は不可能である。また、「遠隔指示」及び「ロボットへの指示方法」の項で述べた先行技術は実世界へのポインティング技術であり、ハンズフリーではない。
本発明者の1人は、図9に示す空気枕を利用したPC操作用頭部動作インタフェース(以下空気枕インタフェース1という)を提案している(特許文献1)。この空気枕インタフェース1は、空気が封入された4つの長方形空気袋ユニットA1,A2,A3,A4を階層的かつ井桁状に配置して、枕カバー2にて包んだ構造である。S1,S2,S3,S4は、それぞれの空気袋ユニットA1,A2,A3,A4に取り付けられた空気圧センサで、それらの内圧を測定することで頭部加重方向(XYZ)を測定する。空気圧センサS1,S2,S3,S4からの信号は、座標演算回路3及び出力インタフェース4を介して出力され、カーソル移動・クリック・ドラッグ等の操作に使用される。力入力型であるので頭部駆動範囲が狭い被介護者にも適用でき、またZ成分により奥行き操作も可能である。カーソル操作性能を示すスループットとクリックの速さを示すCT(クリックタイム)指標に基づき通常のPCマウスと比較した結果、30%程度の性能を有することを確認している。
佐藤知正:"生活を支えるネットワーク知能機械−ロボティックルームの試み",東芝レビューVol.56No.9 pp.28
布下正意,海老澤嘉伸,石間大典,"超音波位置計測に基づく頭部運動によるポインティングシステム",映像情報メディア学会誌:映像情報メディア57(3),403−408,2003−03−01,2003
中沢信明,清水政博,山田功,松井利一,伊藤勲,"頭部の傾きと口の開閉動作を利用したパソコン操作インタフェース",日本機械学會論文集.C編72(724),3892−3898,2006−12−25,2006
會田卓也,西本卓也,大川茂樹,嵯峨山茂樹,"頭部モーションセンサと音声を用いた対話インタフェースの検討",電子情報通信学会信学技法TL2006−55,2007
伊藤和幸,"レーザ光線を利用した頸髄損傷者向けマウスポインティングデバイス",電子情報通信学会論文誌D Vol.J90−D No.3 pp.771−779,2007
久保宏一郎,飯田行恭,嶌田聡,大塚作一,"頭部動作による障害者用PC操作支援ツールの検討",電子情報通信学会技術研究報告.HCS,ヒューマンコミュニケーション基礎101(36),35−42,2001−04−20,2001
数藤他:光入力式キーボードの改良とその使用結果,国立身体障害者リハビリテーションセンター研究紀要10,1989
公益財団法人明治安田心の健康財団 コミュニケーション支援ボード
小山慎哉,葛岡英明,Paul Luff,山崎敬一:"指示者を代理するロボットによる遠隔操作指示支援",情報処理学会研究報告2001−GW−39,pp.83−88,2001
葛岡英明,山崎敬一,上坂純一:"ロボットを介した遠隔コミュニケーションシステムにおけるエコロジーの二重性の解決:頭部連動と遠隔ポインタの評価",情報処理学会論文誌,Vol.46,No.1,pp.187−196,2005
Charles C.Kemp,Cressel D.Anderson.Hai Nguyen,Alexander J.Trevor,and Zhe Xu:"A Point−and−Click Interface for the Real World: Laser Designation of Objects for Mobile Manipulation",In Proc.HRI 2008,241−248,2008
本発明は、実世界(実物体)とサイバー空間(PC)の両者に境目無くアクセス可能なハンズフリーインタフェース装置を提供するものである。PCと実世界両者へのポインティングを可能にすることで、寝たきり患者等被介護者の介護者及び介護ロボットへの意思表示が簡単になり、直観的で分かりやすい意思疎通が可能になる。
本発明に係るインタフェース装置は、内部に空気が封入された複数の空気袋ユニットと、該空気袋ユニットの圧力検知信号を入力してこれを座標値に変換する座標演算回路と、該座標演算回路の出力信号が入力される出力インタフェースとを備えた空気枕インタフェースと、実世界の所定の位置を指し示すレーザポインタと、該レーザポインタの指し示す場所を撮影するカメラと、前記レーザポインタにより指し示されるカメラの撮影場所を変更すべくこれを左右上下方向に駆動するパンチルト駆動手段と、前記出力インタフェースからの信号を入力するとともに前記パンチルト駆動手段を制御する制御手段と、前記制御手段の制御出力を表示するディスプレイ手段とを備え、前記制御手段は、さらに前記出力インタフェースからの信号によりマウスカーソル位置を算出するカーソル値算出手段と、前記ディスプレイ手段の外部の実世界に、前記レーザポインタのマーカカーソル座標であって、前記ディスプレイ手段のカーソル位置座標に一致するディスプレイ座標系を生成するディスプレイ座標系生成手段と、該ディスプレイ座標系生成手段により求めたディスプレイ座標系マーカカーソル座標値を前記レーザポインタから見たレーザポインタ座標系の座標値に変換するレーザポインタ座標系変換手段と、該レーザポインタ座標系変換手段より求めた座標値から前記パンチルト駆動手段のパン軸角度及びチルト軸角度を算出するパンチルト角算出手段と、を含むものである。
また本発明に係るインタフェース装置は、前記レーザポインタ座標系変換手段により算出された座標値が前記ディスプレイ内から外部に移動したとき、前記レーザポインタをオンに切り換えるとともに、前記座標値が前記ディスプレイ外部から内部に移動したとき、前記レーザポインタをオフに切り換えるレーザポインタオンオフ制御手段が追加されてなるものである。
本発明によれば、被介護者がPCディスプレイ内を操作中は、パンチルト駆動手段の存在とは無関係にマウス操作を行う。そして、カーソルが画面の端まで到達した瞬間、カーソルの代わりにレーザポインタを、あたかもそのカーソルがディスプレイ内から実世界にそのまま飛び出すかのように連続的に投影させる。その後、被介護者は肉眼で実物体とレーザポインタの位置を確認しながら実世界ポインティングを行う。介護者はそのレーザポインタの指す実物体を肉眼で見ることにより、被介護者の要求を瞬時に想像することが可能となる。逆に、実世界ポインティングを行っている状態でレーザポインタをディスプレイ内に持ち込んだ場合は、その瞬間途切れることなくディスプレイ内のカーソルに制御が移り、通常のディスプレイ内でのマウス操作が行われる。例えば、カーソルをディスプレイ内に表示された飲み物例えばコーヒーから移動させ、ディスプレイ外の実世界に置いてあるコップにカーソルに連続してレーザポインタを移動させることにより、介護者は、被介護者がコーヒーをコップに注いでほしいと望んでいることを知るのである。
図1において、1は前述した空気枕インタフェース、5は空気枕インタフェース1の出力インタフェース4からの信号が入力される制御手段、6は、制御手段5の出力が表示されるディスプレイ手段(PC画面)、7は、実世界の所定の位置を指し示すレーザポインタ、8は、レーザポインタ7が指し示すマ場所を撮影するカメラ、9は、レーザポインタ7及びカメラ8が固定され、これらをチルト方向(上下方向、矢印aにて示す)及びパン方向(左右方向、矢印bにて示す)に駆動するパンチルト駆動手段である。このパンチルト駆動手段9は、制御手段5により駆動、制御され、その駆動結果を示す信号は、制御手段5に入力される。
図2に示すように、制御手段5において、10は、出力インタフェース4からの信号によりマウスカーソル位置C(x,y)を算出するカーソル値算出手段、11は、PC画面6の外部の実世界に、ポインティング目標値であって、PC画面6のカーソル位置座標C(x,y)に一致するディスプレイ座標系ΣDの座標値pD(xD,yD)を生成するディスプレイ座標系生成手段、12は、ディスプレイ座標系生成手段11により求めたディスプレイ座標系の座標値をレーザポインタ9から見たレーザポインタ座標系ΣLの座標値pL(xL,yL,zL)に変換するレーザポインタ座標系変換手段、13は、座標系ΣLからパンチルト駆動手段9のパン軸操作角及びチルト軸操作角を算出するパンチルト角算出手段である。このパンチルト角算出手段13からの信号により、パンチルト駆動手段9が駆動制御される。14は、レーザポインタ座標系変換手段12からの座標信号を入力するレーザポインタオンオフ制御手段で、この制御手段により算出されたレーザポインタ座標値pL(xL,yL)がPC画面6内から外部に移動したとき、レーザポインタ7をオンに切り換えるとともに、レーザポインタ座標値pL(xL,yL)がPC画面6外部から内部に移動したとき、レーザポインタ7をオフに切り換えるレーザポインタオンオフ制御手段である。
かかる構成において、PC画面6内においては、空気枕インタフェース1から取得されるPCカーソル位置座標及びクリック動作命令により、GUI操作を実現する。またPC画面6を超えた実世界においては、空気枕インタフェース1の出力データを継続的に利用し、PCカーソルがあたかもPC画面6から実世界に飛び出すかのようにレーザポインタ7を連続的に照射することで、実物体へのアクセスを実現する。
本実施形態におけるインタフェース装置の具体的な構成部品は以下のとおりである。
パンチルト駆動手段9(パンチルトアクチュエータ):TRACLabs社Biclops PT(2自由度)
USBカメラ8:Microsoft社Webcam3000
操作用ハンズフリーインタフェース:空気枕インタフェース1
レーザポインタオンオフ制御手段14
レーザ端子:赤色レーザ発光モジュール(円筒型)LM−101−A2
USB入出力基盤:USB接続デジタル入出力モジュール USB−102.0
プログラム開発環境:Microsoft Visual Studio 2008 VC/C++
使用ライブラリ
ARToolKit:カメラ−ディスプレイ間の位置姿勢計測を行う。
Directshow:Webカメラ制御を行う。
PantiltAPI:パンチルトアクチュエータ制御を行う。
パンチルト駆動手段9(パンチルトアクチュエータ):TRACLabs社Biclops PT(2自由度)
USBカメラ8:Microsoft社Webcam3000
操作用ハンズフリーインタフェース:空気枕インタフェース1
レーザポインタオンオフ制御手段14
レーザ端子:赤色レーザ発光モジュール(円筒型)LM−101−A2
USB入出力基盤:USB接続デジタル入出力モジュール USB−102.0
プログラム開発環境:Microsoft Visual Studio 2008 VC/C++
使用ライブラリ
ARToolKit:カメラ−ディスプレイ間の位置姿勢計測を行う。
Directshow:Webカメラ制御を行う。
PantiltAPI:パンチルトアクチュエータ制御を行う。
パンチルト駆動手段(パンチルトアクチュエータ)9のカーソル追従
PC画面6内と実世界間の連続的な切り替えには、レーザポインタ7がマウスカーソルに正確に追従することが必要である。つまり、PC画面6内はカーソルが移動し、PC画面6外に出るとすぐにレーザポインタ7がそのカーソルの続きのように動くことで切れ目のない切り替えを行う。
PC画面6内と実世界間の連続的な切り替えには、レーザポインタ7がマウスカーソルに正確に追従することが必要である。つまり、PC画面6内はカーソルが移動し、PC画面6外に出るとすぐにレーザポインタ7がそのカーソルの続きのように動くことで切れ目のない切り替えを行う。
空気枕インタフェースを用いたカーソル値取得
マウスカーソルの値は空気枕インタフェース1の空気圧の変動により求められる。カーソル位置決定には特許文献1に記載の構造を使用している。すなわち空気枕インタフェース1は、図9に示すように4つの空気袋ユニットA1,A2,A3,A4が井桁状に組み合わされた構造であり、それぞれの空気袋ユニットA1,A2,A3,A4の空気圧piとし、枕に頭を乗せたときの初期空気圧pi0とすると、空気圧の変化率が次式で表される。
マウスカーソルの値は空気枕インタフェース1の空気圧の変動により求められる。カーソル位置決定には特許文献1に記載の構造を使用している。すなわち空気枕インタフェース1は、図9に示すように4つの空気袋ユニットA1,A2,A3,A4が井桁状に組み合わされた構造であり、それぞれの空気袋ユニットA1,A2,A3,A4の空気圧piとし、枕に頭を乗せたときの初期空気圧pi0とすると、空気圧の変化率が次式で表される。
dx、dyは被介護者の頭部の動かしやすさとして、操作開始直後に入力される値をもとに計算される。dx=dright|dleft、dy=dup|ddownであり、入力方向が右上ならばdx=dright、dy=dupと入力方向に応じて変化する。dright、dleft、dup、ddownは初期空気圧を取得した後に、被介護者の頭部の動かしやすさとして上下左右に頭部を動かすことで計測される値diをもとに設定される値であり、以下のように定義する。
ここで、vbは基本となるカーソル速度であり、|f|=1となるときにv=vbとなるように設定される。rmoveとrstopは、図3に示すようなカーソル操作時、停止時におけるそれぞれ円状の不感帯を表し、rmove<rstop<1の範囲で操作感に応じて適宜設定される。また、v’は1サンプリング前のvの値で、演算直前におけるカーソル速度を意味する。得られたvを積分することにより、カーソル位置を次式のように決定する。
PC画面6上のマーカからレーザポインタ7への座標変換
図4に示すように、実世界上にPC画面6の左下を原点としたディスプレイ座標系ΣDを生成する。カーソル値C(x,y)をこのディスプレイ座標系ΣDに一致させるため、左上原点の座標系を左下原点の座標系へ変換し、pixel単位の座標値をmm単位系の座標値pD(xD,yD)に換算してディスプレイ座標系のマウスカーソル値の物理的な位置を求める。単位系への換算は実際に計測した画面の大きさ[mm]と画素数[pixel]の比例関係から換算した。
図4に示すように、実世界上にPC画面6の左下を原点としたディスプレイ座標系ΣDを生成する。カーソル値C(x,y)をこのディスプレイ座標系ΣDに一致させるため、左上原点の座標系を左下原点の座標系へ変換し、pixel単位の座標値をmm単位系の座標値pD(xD,yD)に換算してディスプレイ座標系のマウスカーソル値の物理的な位置を求める。単位系への換算は実際に計測した画面の大きさ[mm]と画素数[pixel]の比例関係から換算した。
求めたディスプレイの座標系ΣDのカーソル座標値pD(xD,yD,0)をパンチルトアクチュエータ9上のレーザポインタ7から見たレーザポインタ座標系ΣLの座標値pL(xL,yL,zL)に変換するために、C++言語のライブラリであるARToolKitを用いた。ARToolKitを用いた理由としては、パンチルトアクチュエータ9上に搭載したWebカメラ8からビジュアルマーカを映すことでビジュアルマーカの座標系からカメラ座標系ΣCの位置姿勢計測を高速に行うことができ、実装も容易だからである。このとき、ARToolKitのビジュアルマーカはPC画面6の左下に位置するようにデスクトップの背景として設定した。
数式8として計算された同次変換行列を用いてディスプレイ座標系のカーソル座標値pD(xD,yD,0)をパンチルトアクチュエータ9上のレーザポインタ7から見た座標系の座標値pL(xL,yL,zL)に変換する。
逆運動学によるパンチルトアクチュエータ9の操作角算出
前述したレーザポインタ座標系から、逆運動学を求める。
図5に示すように、パン軸の操作角θP、チルト軸の操作角θTは、パンチルトアクチュエータ9のパン軸・チルト軸の座標軸が一致しているため、次式のように簡潔な逆運動学の式で求められる。また、パンチルトアクチュエータ9は付属のAPIによりPID制御を行なっているため、別途制御を行う必要はない。
前述したレーザポインタ座標系から、逆運動学を求める。
図5に示すように、パン軸の操作角θP、チルト軸の操作角θTは、パンチルトアクチュエータ9のパン軸・チルト軸の座標軸が一致しているため、次式のように簡潔な逆運動学の式で求められる。また、パンチルトアクチュエータ9は付属のAPIによりPID制御を行なっているため、別途制御を行う必要はない。
レーザポインタオンオフ制御手段14
PC画面6内のマウス操作時には通常マウスと同様にカーソルが現在地点を示しているため、レーザポインタ7は不要である。そこでレーザポインタ7はPC画面6外に出たときのみに点灯し、PC画面6では点灯しない構成とする。
PC画面6内のマウス操作時には通常マウスと同様にカーソルが現在地点を示しているため、レーザポインタ7は不要である。そこでレーザポインタ7はPC画面6外に出たときのみに点灯し、PC画面6では点灯しない構成とする。
具体的にはUSBから制御可能なUSBIO−2.0を用い、プログラムの作成はMicrosoft Visual Basic2010で行った。オン用プログラム、オフ用プログラムをそれぞれ実行可能ファイルとして作成し、カーソル値がPC画面6内外の境界に達すると、プログラム内でShellExecute関数により呼び出し、オンオフ操作を実現した。
被介護者の頭部可動範囲は障害の有無や程度に依存し個人差が大きい。よって、その範囲に応じて、以下の2つのケースについて説明する。
ケース1:被介護者の頭部動作範囲が大きい場合
ケース2:被介護者の頭部動作範囲が小さい場合
ケース1:被介護者の頭部動作範囲が大きい場合
ケース2:被介護者の頭部動作範囲が小さい場合
ケース1:被介護者の頭部動作範囲が大きい場合
頭部がある程度動くので、頭部の可動域と眼球の運動によって目視できる範囲は広い。よって図6に示すようなイメージでの操作を行う。
頭部がある程度動くので、頭部の可動域と眼球の運動によって目視できる範囲は広い。よって図6に示すようなイメージでの操作を行う。
被介護者が頭部15を動かして空気枕インタフェース1によりPC画面6内を操作中は、パンチルトアクチュエータ9の存在とは無関係にマウス操作を行う。そして、カーソル16が画面の端Pまで到達した瞬間(矢印cにて示す)、カーソル16の代わりにレーザポインタ7を、あたかもそのカーソルがPC画面6内から実世界にそのまま飛び出すかのように連続的に投影させる(矢印dにて示す)。その後、被介護者は肉眼で実物体17とレーザポインタ7の位置を確認しながら実世界ポインティングを行う。介護者はそのレーザポインタ7の指す実物体17を肉眼で見れば、被介護者の要求を瞬時に理解することができる。逆に、実世界ポインティングを行っている状態でレーザポインタ7をPC画面6内に持ち込んだ場合は、その瞬間途切れることなくPC画面6内のカーソル16に制御が移り、通常のPC画面6内でのマウス操作が行われる。
ケース2:被介護者の頭部動作範囲が小さい場合
ケース1は、被介護者が自分の肉眼によってPC画面6を含む周りの環境をぐるりと見渡せることが可能な場合を想定している。しかし、頭部可動範囲が小さい場合、被介護者の視野範囲は、PC画面6とその近傍に制限される。これは被介護者の頭部動作に関する運動能力に依存し個人差が大きい。
ケース1は、被介護者が自分の肉眼によってPC画面6を含む周りの環境をぐるりと見渡せることが可能な場合を想定している。しかし、頭部可動範囲が小さい場合、被介護者の視野範囲は、PC画面6とその近傍に制限される。これは被介護者の頭部動作に関する運動能力に依存し個人差が大きい。
ケース1と同様な構成で、パンチルトアクチュエータ9に搭載されたカメラ8を利用し、実世界の状況をPC画面6内から覗き込むようにして、レーザポインティングを行う方法である。図7は、この方法によるPC画面6から覗き込むようにして見る映像を示す。実世界の映像18がPC画面6内に映し出されている。被介護者は、頭部の動作により、この映像18の範囲とレーザポインタ7によるレーザの位置をPC画面6内で操作し、介護者は実世界またはこの映像18画面を見ることで、被介護者の興味対象を理解する。
また、映像18の細部まで見ることが可能なようにカメラ映像は複数段階(例えば10段階)のズームを可能とすることができる。カメラ8の制御にはMicrosoft社が提供するメディアファイルDirectshow又はストリームに対する様々な操作を行うことのできるAPIを用いることができる。
実施形態にかかるインタフェース装置の性能と操作性を確認するためにケース1、ケース2のそれぞれについて評価試験を行った。図8に示すように、PC画面6上の中心点19と実世界の10箇所にターゲット20,20.‥を配置し、中心点19と1〜10に番号を振ったターゲット20,20、‥順に0→1→0→2→0→3→0→…とレーザポインタ7を往復移動させ、到達時間を計測した。試験はベッドを斜めに起こし、被介護者がPC画面6を見ることができる状態で行った。計測はストップウォッチを用い、評価には、次式に定義されるスループットの値を用いた。
表1にケース1、表2にケース2の合計所要時間と方向別の平均スループットの結果を示す。図8に示すターゲットを実験者から見て右、右上、上、左上、左と方向を分け、それぞれの方向での平均スループット値と全体でのスループット値を求めた。
操作性に関しては、ケース1ではPC画面6内と実世界へのポインティング切り替えを比較的スムーズに行うことができた。ケース2では、カメラ映像で比較的広い範囲が映っているため次のターゲットの位置を確認しやすく、また、カメラ画像のみを見ればよいという利点がある。
本発明においては、ハンズフリーで実世界とPC両者にアクセスできるため、被介護者が正確に介護者に意思を伝達することができる。それゆえ、四肢の不自由な運動弱者、身体障害者、特に寝たきり患者の介護に適用して有用である。
1 空気枕インタフェース
2 枕カバー
3 座標演算回路
4 出力インタフェース
5 制御手段
6 ディスプレイ手段(PC画面)
7 レーザポインタ
8 カメラ
9 パンチルト駆動手段(パンチルトアクチュエータ)
10 カーソル値算出手段
11 ディスプレイ座標系生成手段
12 レーザポインタ座標系変換手段
13 パンチルト角算出手段
14 レーザポインタオンオフ制御手段
15 頭部
16 カーソル
17 実物体
18 映像
19 中心点
20 ターゲット
2 枕カバー
3 座標演算回路
4 出力インタフェース
5 制御手段
6 ディスプレイ手段(PC画面)
7 レーザポインタ
8 カメラ
9 パンチルト駆動手段(パンチルトアクチュエータ)
10 カーソル値算出手段
11 ディスプレイ座標系生成手段
12 レーザポインタ座標系変換手段
13 パンチルト角算出手段
14 レーザポインタオンオフ制御手段
15 頭部
16 カーソル
17 実物体
18 映像
19 中心点
20 ターゲット
Claims (2)
- 内部に空気が封入された複数の空気袋ユニットと、該空気袋ユニットの圧力検知信号を入力してこれを座標値に変換する座標演算回路と、該座標演算回路の出力信号が入力される出力インタフェースとを備えた空気枕インタフェースと、
実世界の所定の位置を指し示すレーザポインタと、
該レーザポインタにより指し示される場所を撮影するカメラと、
前記レーザポインタにより指し示されるカメラの撮影場所を変更すべくこれを左右上下方向に駆動するパンチルト駆動手段と、
前記出力インタフェースからの信号を入力するとともに前記パンチルト駆動手段を制御する制御手段と、
前記制御手段の制御出力を表示するディスプレイ手段とを備え、
前記制御手段は、さらに
前記出力インタフェースからの信号によりマウスカーソル位置を算出するカーソル値算出手段と、
前記ディスプレイ手段の外部の実世界に、前記レーザポインタのマーカカーソル座標であって、前記ディスプレイ手段のカーソル位置座標に一致するディスプレイ座標系を生成するディスプレイ座標系生成手段と、
該ディスプレイ座標系生成手段により求めたディスプレイ座標系マーカカーソル座標値を前記レーザポインタから見たレーザポインタ座標系の座標値に変換するレーザポインタ座標系変換手段と、
該レーザポインタ座標系変換手段より求めた座標値から前記パンチルト駆動手段のパン軸角度及びチルト軸角度を算出するパンチルト角算出手段とを含むことを特徴とするインタフェース装置 - 前記レーザポインタ座標系変換手段により算出された座標値が前記ディスプレイ内から外部に移動したとき、前記レーザポインタをオンに切り換えるとともに、前記座標値が前記ディスプレイ外部から内部に移動したとき、前記レーザポインタをオフに切り換えるレーザポインタオンオフ制御手段が追加されてなることを特徴とする請求項1記載のインタフェース装置
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013114670A JP2014222495A (ja) | 2013-05-13 | 2013-05-13 | インタフェース装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013114670A JP2014222495A (ja) | 2013-05-13 | 2013-05-13 | インタフェース装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014222495A true JP2014222495A (ja) | 2014-11-27 |
Family
ID=52121976
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013114670A Pending JP2014222495A (ja) | 2013-05-13 | 2013-05-13 | インタフェース装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014222495A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017006857A1 (ja) * | 2015-07-08 | 2017-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
-
2013
- 2013-05-13 JP JP2013114670A patent/JP2014222495A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017006857A1 (ja) * | 2015-07-08 | 2017-01-12 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
JP2017021461A (ja) * | 2015-07-08 | 2017-01-26 | 株式会社ソニー・インタラクティブエンタテインメント | 操作入力装置および操作入力方法 |
CN107710105A (zh) * | 2015-07-08 | 2018-02-16 | 索尼互动娱乐股份有限公司 | 操作输入装置和操作输入方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wachs et al. | A gesture-based tool for sterile browsing of radiology images | |
US11723734B2 (en) | User-interface control using master controller | |
RU2740259C2 (ru) | Позиционирование датчика ультразвуковой визуализации | |
JP5992448B2 (ja) | 画像システム及び方法 | |
Jalaliniya et al. | Touch-less interaction with medical images using hand & foot gestures | |
Rosa et al. | Use of a gesture user interface as a touchless image navigation system in dental surgery: Case series report | |
JP5548742B2 (ja) | 双方向アイ・モーション・コミュニケーション・システム | |
JP2014512550A6 (ja) | 画像システム及び方法 | |
CN110275603A (zh) | 分布式人造现实系统、手镯设备和头戴式显示器 | |
Si-Mohammed et al. | Brain-computer interfaces and augmented reality: A state of the art | |
Smith et al. | Mixed reality interaction and presentation techniques for medical visualisations | |
Hatscher et al. | Hand, foot or voice: Alternative input modalities for touchless interaction in the medical domain | |
Krapichler et al. | VR interaction techniques for medical imaging applications | |
JP2013009813A (ja) | 医療用マニピュレータシステム | |
Virag et al. | Browser-based medical visualization system | |
Ma et al. | Device-and system-independent personal touchless user interface for operating rooms: one personal UI to control all displays in an operating room | |
Ghovanloo et al. | Tapping into tongue motion to substitute or augment upper limbs | |
Nestorov et al. | Application of natural user interface devices for touch-free control of radiological images during surgery | |
Opromolla et al. | A usability study of a gesture recognition system applied during the surgical procedures | |
JP2014222495A (ja) | インタフェース装置 | |
Zhang et al. | Immersive augmented reality (I am real)–remote clinical consultation | |
Kalpana et al. | Smart Glove with Gesture Based Communication and Monitoring of Paralyzed Patient | |
Wijayasinghe et al. | Human-like object tracking and gaze estimation with PKD android | |
Shluzas et al. | Design thinking health: Telepresence for remote teams with mobile augmented reality | |
WO2018011105A1 (en) | Systems and methods for three dimensional touchless manipulation of medical images |