特許法第30条第2項適用 (1)ウェブサイトの掲載日2018年2月19日 ウェブサイトのアドレス http://rehamaru.jp/ ウェブサイトの掲載日2018年2月19日 ウェブサイトのアドレス http://rehamaru.jp/%E3%83%A1%E3%83%87%E3%82%A3%E3%82%AB%E3%83%AB%E3%83%BB%E3%82%B8%E3%83%A3%E3%83%91%E3%83%B3%EF%BC%92%EF%BC%90%EF%BC%91%EF%BC%98%EF%BC%88%EF%BC%92%E6%9C%88%EF%BC%92%EF%BC%91%E6%97%A5%EF%BD%9E%EF%BC%92/ (2)展示日2018年2月21日~2月23日 展示会名、開催場所 メディカルジャパン2018 医療ITソリューション展、インテックス大阪(大阪市住之江区南港北1-5-102) (3)放送日 2018年2月26日 放送番組 フジテレビTHE NEWS α (4)展示日 2018年2月27日 展示会名、開催場所 国際イノベーション会議HackOsaka2018スタートアップショーケース、グランフロント大阪(大阪府大阪市北区大深町3-1) (5)放送日 2018年2月27日 放送番組 MBSニュースVOICE (6)展示日 2018年3月4日 展示会名、開催場所 堺市健康さかい21 健康フェア、堺市産業振興センターイベントホール他(堺市北区長曽根町183-5) (7)公開日2018年4月5日 ウェブサイトのアドレス(URL) http://www.kmu.ac.jp/news/laaes70000001d0v-att/20180405Press_Release_re.pdf 公開日2018年4月12日 公開場所学校法人関西医科大学 枚方学舎(大阪府枚方市新町2-5-1) (8)展示日 2018年4月7日 展示会名、開催場所 はっと!!KOBE健康フェア、WHO神戸センター(神戸市中央区脇浜海岸通1-5-1 IHDビル9F) (9) ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://www.nishinippon.co.jp/nnp/medical/article/408090/
特許法第30条第2項適用 (10)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://www.47news.jp/2266908.html (11)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://this.kiji.is/357078772366853217?c=39546741839462401 (12)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://news.goo.ne.jp/article/kyodo_nor/world/kyodo_nor-2018041201001396.html (13)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://www.fukuishimbun.co.jp/articles/-/316923 (14)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス http://www.yamagata-np.jp/news_core/index_pr.php?no=2018041201001396&kate=Science_Environment_Health (15)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://www.kyoto-np.co.jp/politics/article/20181104000056 ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://www.kyoto-np.co.jp/environment/article/20180412000115 (16)ウェブサイトの掲載日2018年4月12日 ウェブサイトのアドレス https://www.asahi.com/articles/ASL4C5HZ3L4CPLBJ005.html (17)発行日2018年4月13日 刊行物 朝日新聞 2018年4月13日付朝刊 第29面 (18)発行日2018年4月13日 刊行物 日刊工業新聞 2018年4月13日付 第29面 (19)ウェブサイトの掲載日2018年4月14日 ウェブサイトのアドレス https://www.asahi.com/articles/ASL4F7TDLL4FUBQU01M.html
特許法第30条第2項適用 (20)ウェブサイトの掲載日2018年4月14日 ウェブサイトのアドレス https://www.youtube.com/watch?v=P1y75b7dD54 (21)ウェブサイトの掲載日2018年4月18日 ウェブサイトのアドレス https://panora.tokyo/58525/ (22)ウェブサイトの掲載日2018年4月18日 ウェブサイトのアドレス https://news.nicovideo.jp/watch/nw3443193 (23)ウェブサイトの掲載日2018年4月18日 ウェブサイトのアドレス https://web.hackadoll.com/n/8mnL2 (24)ウェブサイトの掲載日2018年4月21日 ウェブサイトのアドレス https://info.ninchisho.net/archives/28871 (25)ウェブサイトの掲載日2018年4月21日 ウェブサイトのアドレス https://news.infoseek.co.jp/article/ninchishonet_archives_28871/ (26)ウェブサイトの掲載日2018年6月1日 ウェブサイトのアドレス https://www.sangyo-times.jp/article.aspx?ID=2645 (27)ウェブサイトの掲載日2018年6月4日 ウェブサイトのアドレス https://news.finance.yahoo.co.jp/detail/20180604-00006264-toushinone-bus_all ウェブサイトの掲載日2018年6月4日 ウェブサイトのアドレス https://limo.media/articles/-/6264 (28)ウェブサイトの掲載日2018年6月4日 ウェブサイトのアドレス https://www.excite.co.jp/news/article/Toushin_6264/?p=3 (29)ウェブサイトの掲載日2018年7月23日 ウェブサイトのアドレス http://ascii.jp/elem/000/001/707/1707527/ (30)ウェブサイトの掲載日2018年7月23日 ウェブサイトのアドレス https://weekly.ascii.jp/elem/000/000/417/417146/
特許法第30条第2項適用 (31)ウェブサイトの掲載日2018年7月23日 ウェブサイトのアドレス http://startuptimes.jp/2018/07/23/91782/ (32)ウェブサイトの掲載日2018年8月2日 ウェブサイトのアドレス https://earthkeylab.com/japan/%E3%83%AA%E3%83%8F%E3%81%BE%E3%82%8B-%E3%80%8E%E3%83%A1%E3%83%87%E3%82%A3%E3%82%AB%E3%83%AB%E3%81%AB%E3%82%A8%E3%83%B3%E3%82%BF%E3%83%86%E3%83%BC%E3%83%A1%E3%83%B3%E3%83%88%E3%82%92%E3%80%8Fmr-vr/ (33)発行日2018年8月18日 刊行物 日本経済新聞 2018年8月18日付 (34)ウェブサイトの掲載日2018年8月18日 ウェブサイトのアドレス https://www.nikkei.com/article/DGKKZO34261960X10C18A8LKD000/ (35)発行日2018年8月31日 刊行物 日本経済新聞 2018年8月31日付 第39面 (36)ウェブサイトの掲載日2018年8月31日 ウェブサイトのアドレス https://www.nikkei.com/article/DGXMZO34795620Q8A830C1LKA000/ (37-1)発行日2018年8月29日 刊行物 第52回作業療法学会抄録集 (37-2)開催日2018年9月8日 集会名、開催場所 第52回作業療法学会、名古屋国際会議場(愛知県名古屋市熱田区西町1-1) (38)展示日2018年9月27日~9月29日 展示会名、開催場所 第23回中国国際医療機械展覧会、中国国際展覧センター(中国北京市朝陽区北三杯東路6号)(39)発行日2018年10月13日 刊行物 毎日新聞 2018年10月13日付夕刊第1面 (40)ウェブサイトの掲載日2018年10月13日 ウェブサイトのアドレス https://mainichi.jp/articles/20181013/ddf/001/040/003000c
特許法第30条第2項適用 (41-1)発行日(抄録集の発送日) 2018年10月15日 刊行物 第2回日本リハビリテーション医学会秋季学術集会抄録集 (41-2)開催日2018年11月2日~11月4日 集会名、開催場所 第2回日本リハビリテーション医学会秋季学術集会、仙台国際センター(仙台市青葉区青葉山無番地) (42)展示日2018年11月2日~11月4日 展示会名、開催場所 第2回日本リハビリテーション医学会秋季学術集会の企業ブース、仙台国際センター(仙台市青葉区青葉山無番地) (43-1)発行日 2018年10月1日 刊行物 第48回日本臨床神経生理学会学術大会抄録集(臨床神経生理学46巻5号) (43-2)開催日2018年11月8日~11月10日 集会名、開催場所 第48回日本臨床神経生理学会学術大、東京ファッションタウン東館9階(東京都江東区有明3丁目6-11) (44)開催日 2018年11月18日 集会名、開催場所 ひらかた市民大学、学校法人関西医科大学枚方学舎オープンラウンジ(大阪府枚方市新町2-5-1) (45)展示日2018年12月6日~12月7日 展示会名、開催場所 第42回日本高次脳機能障害学会学術総会の企業ブース、神戸国際展示場(神戸市中央区港島中町6-11-1) (46-1)発行日 2018年10月 刊行物 第42回日本高次脳機能障害学会学術総会: プログラム・講演抄録 (46-2)開催日2018年12月6日~12月7日 集会名、開催場所 第42回日本高次脳機能障害学会学術総会、神戸国際展示場(神戸市中央区港島中町6-11-1) (47)販売日2018年9月25日 販売した場所 社会医療法人平成醫塾苫小牧東病院(北海道苫小牧市明野新町五丁目1番30号)
(第1の実施形態)
図1は、本発明の第1の実施形態に係るリハビリテーションシステム1の全体構成を示す図である。図1において、リハビリテーションシステム1は、医師側端末2と、サーバ3と、施術者側端末4と、画像処理装置5とを備える。
医師側端末2、サーバ3、及び施術者側端末4は、ネットワーク6を介して通信可能に接続されている。画像処理装置5と施術者側端末4とは、無線または有線によって、通信可能に接続されている。なお、施術者側端末4と画像処理装置5とは、病院等のリハビリ施設内で接続されているような場合(院内でのリハビリ)だけを想定しているのではなく、施術者側端末4と画像処理装置5とが、ネットワークを介して接続されているような場合(在宅リハビリや遠隔地でのリハビリなど)についても、本発明のリハビリテーションシステム1では、想定されている。
医師側端末2は、高次脳機能障害のリハビリテーションのメニュー(以下、「リハビリメニュー」という。)を患者毎に作成して、サーバ3に記憶させる。施術者側端末4は、医師側端末2が登録したリハビリメニューをサーバ3からダウンロードする。施術者側端末4は、患者が使用する画像処理装置5に対して、ダウンロードしたリハビリメニューに関するリハビリテーションを実行するように指示する。画像処理装置5は、指示されたリハビリメニューにしたがって、リハビリテーションに必要な画像を表示する。画像処理装置5によって実行されたリハビリ履歴情報は、施術者側端末4に送信される。施術者側端末4は、リハビリ履歴情報をサーバ3にアップロードする。医師側端末2は、サーバ3にアップロードされているリハビリ履歴情報に基づいて、患者のリハビリテーションの実施状況を視覚的に分かるように表示する。このようにして、リハビリテーションシステム1は、医師によるリハビリメニューの決定、施術者側におけるリハビリテーションの実施、リハビリテーションによる患者の状況の表示を実現するシステムである。
なお、医師側端末2及びサーバ3を使用せずに、施術者側端末4と画像処理装置5とによってリハビリテーションを実施することも可能であり、その実施形態については、第2の実施形態において、説明する。
本実施形態のリハビリテーションシステム1は、システムが単独で存在するとして説明している。しかし、本発明のリハビリテーションシステムは、医療用のグループウエアや電子カルテシステム、その他の医療用システムの一部に組み込んで、動作させることも可能である。したがって、他の医療用システムに組み込まれて動作しているリハビリテーションシステムも、本発明に含まれるものとする。
医師側端末2は、医師が使用するコンピュータ装置であり、パーソナルコンピュータや、ワークステーション、タブレット端末、スマートフォンなど、情報処理装置であれば、その名称は特に限定されるものではない。複数の医師が医師側端末2を使用する場合は、各医師がそれぞれ、別々の医師側端末2を使用してもよい。また、一つの医師側端末2を複数の医師で共有して、医師毎に、アカウントを設定して、使用するようにしてもよい。その他、周知のあらゆる手法で、医師側端末2を医師が利用することができる。
施術者側端末4は、作業療法士などの施術者が使用するコンピュータ装置であり、パーソナルコンピュータや、ワークステーション、タブレット端末、スマートフォンなどの情報処理装置であれば、その名称は特に限定されるものではない。なお、施術者とは、患者に、リハビリテーションを施す者であり、作業療法士だけに限らず、発明としては、理学療法士や、看護師、医師、介護士、鍼灸師、家族、知人なども含み、本件発明においては、資格の有無を問わない概念として用いている。施術者側端末4についても、各施術者がそれぞれ、別々の施術者側端末4を使用してもよいし、また、一つの施術者側端末4を複数の施術者で共有して、施術者毎に、アカウントを設定して、使用するようにしてもよい。その他、周知のあらゆる手法で、施術者側端末4を施術者が利用することができる。
サーバ3は、リハビリテーションシステム1で用いる患者のデータなどを保存したり、リハビリテーションのスケジュールを作成したり、リハビリ履歴情報を表示したりするためのプログラムを実行するコンピュータ装置である。ここでは、一つのサーバ3が図示されているが、複数のサーバ3を用いて、データを保存したり、プログラムを実行したりしてもよい。また、データを保存するサーバとプログラムを実行するサーバとは、別々の装置として存在してもよい。その他、周知のあらゆる手法で、サーバ3を構築することができる。
画像処理装置5は、たとえば、ヘッドマウントディスプレイ(HMD)5aや、マイクロソフト(登録商標)社のHOLOLENS(登録商標)5b、スマートフォンやタブレット端末などの装置5c及びそれを装着するゴーグル5d、タブレット端末やスマートフォンなどのタッチ入力型の表示装置5eなどである。図1では、3つの画像処理装置5を図示しているが、数に限定はなく、患者毎に画像処理装置5を所有していてもよいし、複数の患者で画像処理装置5を共有して使用してもよい。本実施形態において、明細書及び図面において、HMDと表記する場合があるが、画像処理装置5をヘッドマウントディスプレイに限定する意味ではなく、画像処理装置5を略記するために、表記しているに過ぎない。
画像処理装置5において用いられる技術は、仮想現実(VR:Virtual Reality)、拡張現実(AR:Augmented Reality)、及び複合現実(MR:Mixed Reality)のいずれかである。仮想現実、拡張現実、及び複合現実の分類方法については、種々考えられるが、本明細書では、以下の意義を有するものとして、説明することとする。
仮想現実を用いた場合、画像処理装置5は、仮想空間に関する画像を表示し、ユーザに対して、実際に仮想空間に存在しているかのような知覚を与える。一般に、仮想現実を用いた場合、ユーザの動きに合せて、表示されている画像が変化し、仮想空間上を移動しているかのような知覚をユーザに与えることができる。仮想現実を用いる場合は、仮想空間上の物体の3次元情報及び画像処理装置5の位置や傾き、ユーザの視線などトラッキング情報が必要である。仮想空間上で、ユーザがどの位置で、どのような向きで仮想空間を視認しているかが計算され、その計算に基づいて、仮想空間上での画像が画像処理装置5に表示されることとなる。
なお、以下の説明において、仮想現実及び拡張現実において、アイトラッキング機能等によって、ユーザの視線を検出する場合を用いて、例示的に説明するが、ユーザがどの方向を向いているか、少なくともユーザの向きが分かればよい。したがって、ユーザの視線と説明している箇所は、全て、ユーザの向きと置き換えて読むことができ、その場合、画像処理装置5において、視線検出部59の代わりに、向き検出部59が用いられているとして、発明を理解するものとする。なお、ユーザの視線は、ユーザの向きに包含される概念である。視線検出部59は、向き検出部59に包含される概念である。視線以外にユーザの向きを検出するための具体的手段として、たとえば、頚部運動センシングを用いることができるが、本発明を限定するものではない。
拡張現実を用いた場合、画像処理装置5が得た現実画像に対して、現実画像に仮想の対象物の画像が合成されて、合成された両者の画像が表示される。拡張現実では、仮想の対象物を合成するための現実画像を認識して、認識した現実画像に対して、仮想の対象物の画像を合成している。そのため、本明細書上では、画像処理装置5は、仮想現実や複合現実のように、画像処理装置5の位置や傾き、ユーザの視線などのトラッキング情報を得ていないとする。ただし、この定義は、説明を分かりやすくするための本明細書上の定義に過ぎず、本発明において、トラッキング情報を得ることができる画像処理装置を用いて、拡張現実によって、本発明を実現していてもよいことは言うまでもない。
表示装置5eを用いる場合は、主に、ARの場合を想定している。患者がタブレット端末などの表示装置5eを持ちながら、表示装置5eのカメラで周囲の現実空間を映しながら、表示装置5eを動かし、その動きに合わせて、仮想空間上の対象物が画像合成で現実空間の映像に合成される。ただし、ARの場合が、表示装置5eに限定されるものではない。
複合現実では、現実空間を、画像認識や深度カメラ、赤外線センサー、レーザ照射、その他の各種センサや検出機などによって、立体形状として認識する空間認識を実現している。複合現実を用いた場合、画像処理装置5は、認識した現実空間に対象物が存在しているかのような画像を表示し、ユーザに、現実空間に仮想の対象物が存在しているかのような知覚を与える。さらに、複合現実を用いた場合は、画像処理装置5は、現実空間における画像処理装置5の位置や傾き、ユーザの視線など(トラッキング情報)を認識でき、現実空間におけるユーザの移動と合せて、仮想の対象物が現実空間に配置されたままであるとの知覚をユーザに与えることができる表示を行うことができる。複合現実の場合、画像処理装置5は、ユーザの視線を検出することができ、ユーザがどの向きを向いているかを把握することができる。そのため、画像処理装置5は、ユーザの向きに合せて、表示される画像も変化させることができる。さらに、複合現実では、ユーザによる指や手の動作が検出されて、仮想の対象物を選択等することができるものとする。
複合現実における空間認識の手法は種々提案されているが、たとえば、画像上の特異点を抽出して、抽出した複数の特異点を3次元座標に変換することで、周囲の立体形状を把握し、さらに、自身の位置を特定する。
なお、本実施形態は、複合現実を用いた場合を想定しているが、適宜、仮想現実及び拡張現実を用いた場合の実施形態についても説明する。本発明のリハビリテーションシステムは、複合現実だけでなく、仮想現実及び拡張現実を用いても実現できる。
また、画像処理装置5の位置、傾き、及びユーザの視線に関する情報をまとめてトラッキング情報ということにする。なお、画像処理装置5の位置及び傾きを検出することで、ユーザの位置及び傾きが検出されるのであるから、画像処理装置5のトラッキング情報とユーザのトラッキング情報とは、同義であるとして説明していく。
図2は、医師側端末2の機能的構成を示すブロック図である。図2において、医師側端末2は、制御部21と、入力部22と、表示部23と、通信部24と、記憶部25とを備える。
制御部21は、リハビリテーションシステム1を実行するために必要なプログラムを記憶部25から読み込んで実行することで、医師側端末2の動作を制御する。入力部22は、キーボードやマウス、タッチパネルなど、医師側端末2を操作するための機器である。表示部23は、ディスプレイなどの表示装置である。通信部24は、ネットワーク6を介して、外部のサーバ3と通信可能とするための装置である。
記憶部25は、メモリやハードディスクなどの記録媒体である。記憶部25には、制御部21で実行されるスケジューリング兼閲覧プログラムの他、サーバ3からダウンロードした患者毎の患者データが記録されている。
なお、サーバ3からのリターンを医師側端末2で表示する場合、スケジューリングと患者データの閲覧を医師側端末2で可能とする場合、汎用のブラウザプログラムを、スケジューリング兼閲覧プログラムとして機能させることが可能である。このような技術は、周知の事項であり、ここでは、詳しい説明は省略する。
なお、ここでは、患者データの保存は、サーバ3の分担とし、医師側端末2の記憶部25には、一時的に、患者データが保存されており、サーバ3と医師側端末2とが協働することで、医師側端末2に、一時保存された患者データに基づく表示がなされる。ただし、医師側端末2は、患者データを、一時的ではないように、記憶部25に保存してもよい。
図3は、サーバ3の機能的構成を示すブロック図である。サーバ3は、制御部31と、通信部32と、記憶部33とを備える。サーバ3の制御部31は、通信部32を介して得られる医師側端末2及び施術者側端末4からの指示に応じて、記憶部33に記憶されているスケジューリングプログラム及び/又は履歴閲覧プログラムを実行して、実行結果を、医師側端末2及び施術者側端末4に返す。
医師側端末2を操作するユーザ(典型的には、「医師」であるが、医師に限られない)は、入力部22を使用して、サーバ3にアクセスする。制御部21は、入力部22からの指示に応じて、通信部24を介して、サーバ3にアクセスし、リハビリスケジュールを登録する。また、制御部21は、必要な患者の患者データをダウンロードして、記憶部25に記憶させる。
制御部21は、入力部22を介したユーザの入力に応じて、サーバ3上のプログラムと連携して、施術対象となる患者のリハビリメニューを作成する。制御部21は、作成したリハビリメニューを、サーバ3に記憶させる。また、制御部21は、サーバ3から得られる患者データをダウンロードし、患者のリハビリ履歴を表示部23に表示させる。
なお、ここでは、サーバ3が、スケジュールや、リハビリ履歴情報の管理を行う実施形態を想定しているが、サーバ3を単に施術者側端末4との間でデータのやりとりを行う記録装置として扱う場合、医師側端末2において、スケジューリングプログラム及び履歴閲覧プログラムに相当するプログラムを実行するようにしてもよい。
すなわち、本発明のリハビリテーションシステムでは、医師側端末2、サーバ3、施術者側端末4、及び画像処理装置5がそれぞれ有する機能は、システム全体のどこかに設けられていればよいのであって、以下に説明する各装置に設けられていることを必須とするものではない。たとえば、画像処理装置5が有するとしている機能の一部を施術者側端末4が有していてもよい。また、施術者側端末4が有するとしている機能の一部を医師側端末2やサーバ3が有していてもよい。
図4は、施術側端末4の機能的構成を示すブロック図である。施術者側端末4は、制御部41と、入力部42と、表示部43と、通信部44と、記憶部45とを備える。
制御部41は、記憶部4に記憶されているリハビリ指示プログラムを実行して、施術者側端末4の動作を制御する。入力部42は、キーボードやマウス、タッチパネルなど、施術者側端末4を操作するための機器である。表示部43は、ディスプレイなどの表示装置である。通信部44は、ネットワーク6を介して、外部のサーバ3と通信可能とするための装置である。通信部44は、画像処理装置5と通信するための装置である。ネットワーク6は、インターネットや構内LANなど、特に、ネットワークの種類が限定されない。通信部44と画像処理装置5との間の通信についても、有線又は無線など、通信の種類は特に限定されない。
記憶部45は、メモリやハードディスクなどの記録媒体である。記憶部45には、リハビリ指示プログラムと、サーバ3からダウンロードした患者毎の患者データとが記録されている。なお、ここでは、患者データの保存は、サーバ3の分担とし、施術者側端末4の記憶部45には、一時的に、患者データが保存されており、リハビリ指示プログラムによって、一時保存された患者データがサーバ3にアップロードされる。ただし、施術者側端末4において、患者データを、一時的ではないように、記憶部45に保存しておくようにしてもよい。
施術者側端末4は、リハビリ指示プログラムを実行して、画像処理装置5に対して、リハビリの実行を指示し、リハビリ履歴情報を画像処理装置5から取得し、サーバ3にリハビリ履歴情報を送信する。
ここで、患者データについて説明する。患者データとして、患者の氏名や生年月日、通院履歴などの基本的な情報が記憶されているのは当然であるが、その他に、リハビリテーションの詳細な履歴を示す「リハビリ履歴情報」、リハビリテーションのメニューの詳細を示す「リハビリメニュー情報」、及びリハビリテーションのスケジュールを示す「スケジュール情報」が患者データとして用いられている。
患者データは、サーバ3に保存されており、医師側端末2及び施術者側端末4から、最新の患者データにアクセスすることができるようになっている。当然、周知のあらゆる手法を用いて、患者データは、適切にバックアップされると共に、外部から不正な取得がされないように、セキュリティが施されている。
図5は、画像処理装置5の機能的構成を示すブロック図である。図5において、画像処理装置5は、制御部51と、入力部52と、表示部53と、通信部54と、記憶部55と、音声出力部56と、空間認識部57と、トラッキング部58と、視線検出部59と、画像処理部50とを備える。
制御部51は、画像処理装置5全体の動作を制御する。
入力部52は、有線又は無線のスイッチやタッチパネルなど、画像処理装置5を操作するための機器である。なお、画像処理装置5においては、ユーザのジェスチャーを認識して、画像処理装置5を操作することも可能であるため、図示しないカメラと画像認識処理部とが入力部52として機能すると捉えることも可能である。さらに、視線が一定時間一定の場所で止まっている場合(いわゆる、凝視されている場合)にも、選択という操作が行われたと言えるので、視線検出部59からの情報に基づいて、制御部51が操作が行われたと捉える処理も入力部52による処理であると理解することもできる。
表示部53は、生成された画像を表示するための装置である。VR用のHMD5aであれば、表示部53は、左右の眼用の小型ディスプレイである。なお、VR用のHMD5aにおいて、背景が透過されていてもよいし、背景を不透過としてもよい。MR用のHOLOLENS(登録商標)5bであれば、左右の眼用の小型ディスプレイである。MR用のHOLOLENS(登録商標)5bであれば、背景が透過されている。スマートフォンなどの装置5c及びそれを装着するゴーグル5dによって、画像処理装置5を構築する場合は、装置5cの表示画面が表示部53となる。
なお、MRの例として、ここでは、マイクロソフト(登録商標)社のHOLOLENS(登録商標)5bを例示したが、それ以外のMR用の装置であっても良いことは言うまでもない。MRの場合、レンズから現実空間が透過して知覚できるようになっていてもよいし、また、カメラから撮影した現実空間のリアルタイムの画像が小型ディスプレイに表示されるようにして、リアルタイムの画像と仮想の対象物とを合成することで、MRを実現するようにしてもよい。その他、周知のあらゆる手法を用いて、MRを実現する装置が、画像処理装置5に含まれている。
通信部54は、少なくとも、施術者側端末4と通信可能な装置であるが、ネットワーク6との間で通信可能であってもよい。
記憶部55は、メモリ等の記録媒体である。記憶部55には、アプリの動作を制御するアプリ実行プログラム、リハビリ履歴情報、数字抹消アプリ、第1の選択抹消アプリ、第2の選択抹消アプリ、空間配置アプリ、迷路アプリ、及びマス目移動アプリが記憶されている。数字抹消アプリ、第1の選択抹消アプリ、第2の選択抹消アプリ、空間配置アプリ、迷路アプリ、及びマス目移動アプリについては、いずれか一つが記憶されていればよく、全てのリハビリ用アプリが記憶されていることは必須ではない。なお、各リハビリ用アプリの詳細については、追って、順に説明していく。
将来、新しいリハビリ用アプリが開発された場合、画像処理装置5は、施術者側端末4との通信や、ネットワーク6との通信によって、記憶部55に新しいリハビリ用アプリを追加することが可能である。
アプリ実行プログラムを制御部51に読み込んで実行することで、各リハビリ用アプリへの動作の開始指示、各リハビリ用アプリの動作条件の設定(「アプリ設定条件」という。)、リハビリ履歴情報の記憶、施術者側端末4へのリハビリ履歴情報の送信を実現することが可能となる。
音声出力部56は、スピーカーやイヤホンなどである。音声出力部56は、制御部51からの指示に応じて、問題の正解音や不正解音、リハビリ用アプリの実行開始音、リハビリ用アプリ実行中の音声などを出力する。
空間認識部57は、カメラを含んでおり、画像処理装置5の周辺空間の立体形状を画像認識技術を用いて認識する。カメラ撮影によって、空間の立体形状を認識するための技術については、既に、種々開発されているため、ここでは、そのいずれかの技術を利用して、空間認識を行うものとする。なお、空間認識部57は、VR及びARを用いる場合は、無くてもよい。
なお、空間認識部57による空間認識を必要とするアプリは、空間配置アプリ、迷路アプリ、及びマス目移動アプリである。数字抹消アプリ並びに第1及び第2の選択抹消アプリについては、空間認識処理を行わなくても、仮想空間の対象物が現実空間に配置されているかのように表示部53に表示させることは可能である。ただし、空間認識した上で、数字抹消アプリ並びに第1及び第2の選択抹消アプリにおいても、仮想空間の対象物を配置した方が、より、正確な配置となる。
トラッキング部58は、画像処理装置5の位置や傾きなどを認識する。VRやMRでのトラッキング技術については、既に、種々開発されているため、ここでは、そのいずれかの技術を利用して、位置や傾きの認識を行うものとする。
トラッキング部58は、画像処理装置5の筐体の内部に構造的に含まれているものばかりでなく、筐体の外部に取り付けられたセンサ等によって、位置や傾きなどを検出するようにしてもよい。したがって、画像処理装置5は、インサイドアウト方式によるトラッキングだけでなく、アウトサイドイン方式によるトラッキングを実現してもよい。その場合、トラッキング部58は、画像処理装置5の筐体の外部に存在することとなるが、筐体の外部に存在するトラッキング部58を含めて、画像処理装置5であると捉えるものとする。
視線検出部59は、画像処理装置5を使用しているユーザの視線を検出する装置である。VRやMRでの視線検出技術については、既に、種々開発されているため、ここでは、そのいずれかの技術を利用して、視線の認識を行うものとする。なお、視線検出をトラッキング技術の一部と捉えるのであれば、視線検出部59は、トラッキング部58に含まれていると捉えてもよい。
画像処理部50は、表示部53に表示すべき3次元画像を生成する。ここでは、3次元画像の元となるデータを3次元データと呼ぶことにする。各リハビリ用アプリの実行中、画像処理部50は、空間認識部57で認識された現実空間の立体構造を、3次元データとして記憶部55に記憶しておく。画像処理部50は、配置すべき仮想の対象物の3次元データを、現実空間の立体構造の3次元データと同じ座標軸で記憶部55に記憶しておく。画像処理部50は、トラッキング情報(位置、傾き、及び視線)の3次元データについても、現実空間の立体構造の3次元データと同じ座標軸で記憶部55に記憶しておく。これらの3種類の3次元データを同じ座標軸で管理することで、画像処理部50は、患者の視線から見える仮想の対象物の画像を生成して、表示部53に表示させることが可能となる。
なお、3次元データの処理負担が大きいので、ここでは、制御部51とは切り離して画像処理部50が3次元データの計算を行うこととしているが、当然、制御部51で行うようにしてもよい。
患者は、表示部53に表示される画像を見ながら、与えられた課題をクリアしていく。
図6は、リハビリテーションシステム1における各装置の全体的な動作の流れを示すフローチャートである。
医師側端末2は、まず、サーバ3にログインする(S101)。医師側端末2のログインを受けて、サーバ3は、スケジューリングプログラム及び履歴閲覧プログラムを実行する(S201)。医師側端末2には、リハビリテーションのメニュー作成、スケジュール管理及びリハビリ履歴情報の表示のための画面が表示される。その後、医師側端末2側で、当該画面を見ながら、リハビリテーションのメニュー作成、スケジュール管理及びリハビリ履歴情報の表示が行われる。
本実施形態は、いわゆるクラウドシステムであるため、先述したように、医師側端末2に、ソフトウエアをインストールする必要はない。ただし、本発明には、医師側端末2にソフトウエアをインストールして、リハビリテーションのメニュー作成、スケジュール管理及びリハビリ履歴情報の表示を行う実施形態も含まれており、その実施形態の場合は、サーバ3は、スケジュールやリハビリメニュー、リハビリ履歴情報を記録する記録装置としての役割を主に担うこととなる。医師側端末2にソフトウエアをインストールする場合の医師側端末2の動作については、クラウドシステムの場合の動作と概ね同様であり、当業者であれば、クラウドシステムの場合の動作を援用すれば、十分に実施可能であるので、詳しい説明は省略する。
図6の説明に戻る。医師側端末2は、リハビリスケジュールを組む患者を選択する(S102)。この際、サーバ3から当該医師の担当する患者の名称が医師側端末2に送信されて(S202)、医師側端末2で患者を選択できるようになっている。なお、医師側端末2から、サーバ3に記憶されている患者を検索して、検索結果に基づいて、患者を医師側端末2で選ぶようにしてもよい。
次に、医師側端末2で、リハビリメニューのスケジュール作成処理が実行されて(S103)、作成されたスケジュールが、サーバ3にアップロードされる(S104)。サーバ3は、アップロードされたリハビリメニュー情報及びスケジュール情報を保存する(S203)。患者データに紐付いている情報は、リハビリ履歴情報、リハビリメニュー情報、及びスケジュール情報である。リハビリメニュー情報には、どのアプリを使用するか、その際のアプリ設定条件は何かが含まれている。スケジュール情報には、施術日時と紐付いたリハビリメニュー情報が含まれている。
ここまでの動作は、典型的には、医師が、施術日時よりも前に、実行しておくこととなる。次に、施術日時が近づいてきた場合の施術者側端末4での動作の説明に移る。
施術者側端末4は、サーバ3にログインする(S301)。そして、必要なスケジュールをダウンロードする(S302)。施術者側端末4は、ダウンロードしたスケジュールで登録されているリハビリメニューのアプリを実行するように、画像処理装置5に指示する(S303)。このアプリの開始指示は、典型的には、施術者が行うとよいが、患者自らが行ってもよい。
画像処理装置5は、リハビリ開始指示を受けて、対応するリハビリ用アプリを実行する(S401)。アプリの実行中、採点が行われる。また、患者の視線からどのような画像が見られているかが、画像処理装置5から施術者側端末4に送信される。施術者側端末4では、患者が見ている画像が表示される(S304)。なお、透過型の画像処理装置5を使用している場合は、画像処理装置5のカメラで撮影した現実画像と仮想の対象物とを合成した画像が施術者側端末4に表示されることとなる。
画像処理装置5は、リハビリ用アプリの実行が終了すると、リハビリ履歴情報を、施術者側端末4に送信する(S402)。施術者側端末4は、送信されてきたリハビリ履歴情報を受信する(S305)。施術者からの指示または自動的に、施術者側端末4は、リハビリ履歴情報をサーバ3にアップロードする(S306)。
サーバ3は、送信されてきたリハビリ履歴情報を保存する(S204)。
S105の前に、医師側端末2が一旦ログアウトされて、再ログイン後に、S105の動作が行われてもよい。医師によって、患者が選択された場合(S105)、医師側端末2は、選択された患者のリハビリ履歴情報をダウンロードして、リハビリ履歴を表示する(S106)。そして、必要に応じて、医師側端末2は、リハビリ履歴情報に紐付けるように、医師が入力した所見をサーバ3に送信する(S107)。サーバ3は、リハビリ履歴情報に、所見を紐付けて、保存する(S205)。
以上が、リハビリテーションシステム1の全体的な動きである。次に、具体的な画面例やデータ構造、リハビリイメージを示しながら、リハビリテーションシステム1の全体的な動きの概略を説明することとする。なお、例示する画面例やデータ構造、リハビリイメージは、あくまでも一例であって、本発明を何ら、限定するものではないのは言うまでもない。適宜、当業者の技術常識を用いて、これらは変更可能であることは言うまでもない。
図7は、数字抹消アプリを実行している場合の操作イメージを示す図である。図7において、破線で示した枠が、空間全体であるとする。ここで空間全体とは、VRの場合は、仮想上に作り上げた空間であり、仮想空間上に、ベッドと机が仮想的に置いてあるとしている。AR及びMRの場合は、空間全体とは、患者の周り現実空間を指し、図7の例では、現実空間上に、ベッドと机が存在すると例示している。
図7において、一点鎖線で示した領域は、画像処理装置5を装着した患者から見えている視界の範囲を示している。視界は、仮想空間又は現実空間の一部であるから、一点鎖線は、破線部分よりも狭い領域となる。
画像処理装置5によって、仮想空間又は現実空間に、ここでは、1から13までの数値が配置されている。
MRを用いた場合、現実空間の立体形状が空間認識によって認識され、3次元データに変換される。そして、画像処理装置5は、仮想の対象物の3次元データを同じ3次元座標上に配置し、実際に見えている現実空間に、仮想の対象物が存在するかのように、表示部53に表示する。MRでは、実際にユーザが視認している現実空間の上に、仮想の対象物が存在するかのような画像が表示されており、ユーザが見ている現実空間は、VRとは異なり実際の空間である。
VRを用いた場合は、仮想空間の三次元データ上に、各数字が配置され、配置後の3次元データに基づいて、画像処理装置5が、表示部53に数字が配置された仮想空間の画像を表示させる。VRでは、対象物の周辺の画像は、仮想空間上の画像である。
ARを用いた場合、画像処理装置5は、カメラで撮影された現実空間の画像に、仮想の対象物を合成し、合成された画像を、表示部53に表示する。ARでは、対象物の周辺は、実際に撮影された現実空間の画像であり、現実空間の画像に、仮想の対象物の画像が合成されている。ARでは、現実空間の画像に仮想の対象物の画像を合成した画像をユーザが見ており、実際の現実空間をユーザに見せているMRとは相違する。
VR,AR,MRの何れの技術を用いる場合であっても、空間全体に対して、患者の視界という限られた範囲が存在することとなる。
空間全体に、仮想の対象物(ここでは、数字)が配置されている。画像処理装置5を動かすことで、空間全体に配置されている数字を患者は探すことが可能である。1から順に、数字を消去するというルールであるとすると、図7(a)の場合、顔や目線を動かして視線を動かすことで、1の数字の上に、視線を持って行くものとする。すると、図7(b)に示すように、視界が紙面上左側に移動し、患者が見えている映像も異なるものとなる。1の上に、視線を動かし、入力部52を操作したり、消去ジェスチャーを行ったり、凝視(一定時間視線を対象物に固定する動作)したりすることによって、1を消去することができる。以後、対象物を選択又は消去するための動作を、総称してタップと呼ぶことにするが、タップには、選択又は消去のためのジェスチャー、入力部52の操作、凝視が少なくとも含まれており、その他、周知の選択又は消去の方法(たとえば、音声認識による選択又は消去など)が含まれているものとする。
次に、紙面上右側に視線を移動させれば図7(c)のように、2の上に、視線をもってくることができる。そして、同様にして、2を消去する。さらに、図面上、下に視線を移動させれば、3が視界に入ってきて、図7(d)のように、3を消去することができる。
VR,AR,MRの何れの場合でも、同様にして、数字を空間上に配置するようにして、指定されたルールに基づいて、数字を消去するというリハビリテーションを行うことができる。
数字抹消アプリによって、高次脳機能障害を患っている患者の注意力の向上が期待できる。本発明者等が、実際のリハビリ現場で数字抹消アプリを用いてリハビリを行った結果、情報処理速度や、ワーキングメモリ、全般的認知機能についての改善効果も認められた。
図8は、第1の選択抹消アプリを実行している場合の操作イメージを示す図である。図8の表現方法は、図7と同様である。第1の選択抹消アプリでは、数字抹消アプリの数字に代わって、各種イラストが表示されている。各種イラストの描画方法は、VR,AR及びMR共に、数字抹消アプリの場合と同様である。
第1の選択抹消アプリでは、指定されたイラストを選択して、ユーザが抹消していく。数字抹消アプリと同様に、ユーザは、視線を動かして、消去対象のイラストの上に、視線を持っていく。図8(a)の例では、視線の左斜め上にある「イチゴ」がターゲットのイラストであるとする。図8(b)に示すように、視線を「イチゴ」の上におき、数字抹消アプリと同様の方法で、「イチゴ」をタップして消去する。ここで、ターゲットとは、仮想空間の対象物であり、選択又は消去の対象のことをいう。非ターゲットとは、選択又は消去の対象となっていない仮想空間の対象物のことをいう。
次に、図8(b)の視線の左側にある「イチゴ」の消去を同様に行う(図8(c)参照)。また、図8(d)に示すように、右斜め上の「イチゴ」の消去を同様に行う。
なお、消去対象となるターゲットは、一つに限らず、別な種類の複数のターゲットが消去対象となっていてもよい。
第1の選択抹消アプリによって、高次脳機能障害を患っている患者の注意力及び/又は空間認知力の向上が期待できる。本発明者等が、実際のリハビリ現場で第1の選択抹消アプリを用いてリハビリを行った結果、注意機能や、空間認知機能に関与することが分かってきた。
図9は、第2の選択抹消アプリを実行している場合の操作イメージを示す図である。図9の表現方法は、図7と同様である。第2の選択抹消アプリでは、数字抹消アプリの数字に代わって、各種イラストが表示されている。各種イラストの描画方法は、VR,AR及びMR共に、数字抹消アプリの場合と同様である。
第2の選択抹消アプリでは、指定されたイラストを選択して、ユーザが選択していく。数字抹消アプリと同様に、ユーザは、視線を動かして、選択対象のイラストの上に、視線を持っていく。図9(a)の例では、視線の左にある「猫」がターゲットのイラストであるとする。図9(b)に示すように、視線を「猫」の上におき、数字抹消アプリと同様の方法で、「猫」を選択する。
第2の選択抹消アプリでは、選択後の処理が、第1の選択抹消アプリと異なる。第2の選択抹消アプリでは、選択したターゲットのイラストが変化する。ここでは、黒色のイラストが白色に変化するとしている。ただし、変化の仕方は、特に限定されるものではなく、たとえば、立っていたターゲットが座っているようにイラストが変化するなど、色以外の変化であってよい。
次に、図9(b)の視線の右斜め上側にある「猫」の選択を同様に行う(図9(c)参照)。また、図9(d)に示すように、右斜め下の「猫」の選択を同様に行う。
なお、選択対象となるターゲットは、一つに限らず、別な種類の複数のターゲットが選択対象となっていてもよい。
第2の選択抹消アプリによって、高次脳機能障害を患っている患者の注意力及び/又は抑制力の向上が期待できる。注意力及び/又は抑制力の向上を想定しているが、本発明者等が、実際のリハビリ現場で第2の選択抹消アプリを用いてリハビリを行った結果、空間認知機能にも関与することが分かってきた。
なお、数字抹消アプリ、第1の選択抹消アプリ、及び第2の選択抹消アプリでは、患者は、座ったり立ったりした状態で歩行せずに、顔を動かしながら、ターゲットを探していって、消滅又は選択するといった使用方法を前提としている。ただし、歩行しながら、ターゲットを探すような方法で使用してもよい。
なお、患者の症状の度合いに合わせて、ターゲット及び非ターゲットを配置する領域を調整することができるようにしてもよい。たとえば、視線を中心に、60度程度の狭い範囲にのみ、ターゲット及び非ターゲットを配置するような設定を用いてもよいし、逆に、180度程度の広い範囲にのみ、ターゲット及び非ターゲットを配置するような設定を用いてもよい。
図10は、空間配置アプリを実行している場合の操作イメージを示す図である。図10において、破線は、図7と同様に、空間全体であるとする。ここでは、VRの場合は、仮想空間上に、ベッドと壁が仮想的に置いてあるとしている。AR及びMRの場合は、図10の例では、現実空間上に、ベッドが存在しているとしている。ARの場合、ベッドの存在する現実空間の画像に、壁の画像が合成されるとしている。MRの場合、ベッドの存在する現実空間に、仮想空間上の壁が存在するとしている。
図10において、一点鎖線で示した領域は、図7と同様、画像処理装置5を装着した患者から見えている視界の範囲を示している。
VRの場合、ターゲット(ここでは、白の花)及び非ターゲット(ここでは、黒の花)が、仮想空間上の壁に配置されて、描画されている。ARの場合、ターゲットないし非ターゲットの画像が、壁の画像と共に、現実空間の画像に合成されている。MRの場合、仮想空間上の壁の上に、ターゲットないし非ターゲットが配置されて、描画されている。
空間配置アプリでは、患者が実際に歩行して、ターゲットを探しながら、消去していく。画像処理装置5の現在位置と視線の向きに合わせて、表示される画像が変化していく。
MRの場合、画像処理装置5は、現実空間上での現在位置と視線を認識し、表示される仮想空間の対象物の画像を生成して、表示する。MRの場合、画像処理装置5は、周辺の現実空間の画像を認識して、現実空間の立体構造を認識した上で、仮想空間の対象物の画像(壁や花など)を表示している。
VRの場合、画像処理装置5は、現在位置と視線を認識し、表示される仮想空間上の画像を生成して、表示する。
ARの場合、画像処理装置5は、カメラが撮影している画像を認識して、認識した画像に仮想の対象物を合成する。たとえば、室内の床の模様に沿って、仮想の壁を合成するとした場合、カメラが撮影している床の模様の画像に合うように、仮想の壁の画像を生成して、フレーム毎に、画像合成を行うことで、あたかも、床に、仮想の壁が配置されているかのような画像をユーザに提供することができる。
このように、VR,AR,及びMRのいずれの場合であっても、画像処理装置5の移動に合わせて、表示される画像が刻々と変化することとなる。そのため、ユーザは、あたかも、壁の上に配置されているターゲット画像を探すようにして、移動することができる。
図10(a)の例では、視線の左斜め上にターゲット(白い花)が視認されている。患者は、少し前に歩いて移動すると、図10(b)のように、徐々に、壁と花が近づいてくる画像を視認する。ターゲットであることが確認できた時点で、患者は、視線をターゲットに合わせて、図7の例の場合と同様にして、ターゲットをタップして消去する。その後も、同様にして、ターゲットを消去していく。図10(c)の例では、右側に存在する白い花に気づいた患者が、顔を、右側に動かして、視線を右側の白い花に合わせて、ターゲットを消去する様子が示されている。
なお、図10に示した例では、2つの壁に挟まれた道を歩くことを想定しているが、壁は1つでもよいし、3つ以上でもよい。また、壁は、一直線でなく、曲がっているようにしてもよい。
空間配置アプリによって、高次脳機能障害を患っている患者の空間認知力及び/又は情報獲得力の向上が期待できる。本発明者等が、実際のリハビリ現場で空間配置アプリを用いてリハビリを行った結果、情報処理速度や、ワーキングメモリにも関連することが分かってきた。
図11は、迷路アプリを実行している場合の操作イメージを示す図である。図11に示した図は、空間全体である。ここでは、VRの場合は、仮想空間上に、ドア、机、床及び迷路用の壁が仮想的に置いてあるとしている。AR及びMRの場合は、図11の例では、現実空間上に、ドア、机及び床が存在しているとしている。ARの場合、ドア、机及び床の存在する現実空間の画像に、壁の画像が合成されるとしている。MRの場合、ドア、机及び床の存在する現実空間に、仮想空間上の壁が存在するとしている。
なお、図11では、作図の困難さの関係上、画像処理装置5を装着した患者から見えている視界の範囲については、記載していないが、図7ないし図10と同様に、患者は、空間全体の一定の範囲が画像処理装置5を介して視認している。
VR、AR、及びMRの場合のそれぞれの画像処理装置5における描画方法は、空間配置アプリの場合と同様である。
図11(a)に示すように、迷路には、ゴールを示すフラッグが配置されている。また、ターゲットを示す画像が、迷路内に配置されている。患者が移動すると、画像処理装置5は、患者が移動した先の画像を表示して、迷路内に進入したかのような印象を患者に与える。そのような画像処理は、図10の空間配置アプリの場合と同様である。
図11(a)の他、図11(b)に示すように、画像処理装置5は、患者が見ている画像上にヒントとなる画像を表示してもよい。ここでは、星印で示した地点がターゲットを示しており、患者がターゲット地点を通って、ゴールに行くことを促す画像となっている。なお、必ずターゲットを通らないとゴールできないようにするか、若しくは、ターゲットを通らなくてもゴールできるようにするかは、適宜、設計すべき事項に過ぎない。
患者の移動に応じて、画像処理装置5は、ターゲット地点まで移動したかを認識する。VRやMRの場合は、位置情報を直接的に得ることができるので、画像処理装置5は、認識した位置情報がターゲット地点やゴール地点であるかを認識して、採点を行う。ARの場合は、画像処理装置5のカメラが撮影した画像を認識して、認識した画像がターゲット地点やゴール地点で得られる画像であるか否かを画像処理装置5が判断することで、採点が可能となっている。
なお、迷路アプリにおいて、単に、ゴールまで到達するか否かを採点基準としてもよく、ターゲットを問題として使用しなくてもよい。
迷路アプリによって、高次脳機能障害を患っている患者の空間認知力及び/又は遂行機能の向上が期待できる。
図12は、マス目移動アプリを実行している場合の操作イメージを示す図である。図12に示した図は、空間全体である。ここでは、VRの場合は、仮想空間上に、ドア、机、床及び移動用のマス目が仮想的に置いてあるとしている。AR及びMRの場合、図12の例では、現実空間上に、ドア、机及び床が存在しているとしている。ARの場合、ドア、机及び床の存在する現実空間の画像に、マス目の画像が合成されるとしている。MRの場合、ドア、机及び床の存在する現実空間に、仮想空間上のマス目が存在するとしている。
なお、図12では、作図の困難さの関係上、画像処理装置5を装着した患者から見えている視界の範囲については、記載していないが、図7ないし図10と同様に、患者は、空間全体の一定の範囲が画像処理装置5を介して視認している。
VR、AR、及びMRの場合のそれぞれの画像処理装置5における描画方法は、空間配置アプリの場合と同様である。
図12(a)に示すように、まず、マス目移動アプリによって、東西南北を示したマス目が表示される。患者が視認している画面上に、最初の指示として、『スタート「S」に立ってください。』との指示が表示される。当該指示に応じて、患者が「S」の地点まで移動する。
患者の移動に応じて、画像処理装置5は、ターゲット地点まで移動したかを認識する。VRやMRの場合は、位置情報を直接的に得ることができるので、画像処理装置5は、認識した位置情報がターゲット地点(スタート地点や、指示のあった地点)であるかを認識して、採点を行う。ARの場合は、画像処理装置5のカメラが撮影した画像を認識して、認識した画像がターゲット地点で得られる画像であるか否かを画像処理装置5が判断することで、採点が可能となっている。
スタート地点に到達したら、画像処理装置5は、次の指示としてマス目の移動を指示する。図12(b)の例では、「西へ3、南へ4、東へ1」の移動指示がなされている。画像処理装置5は、このターゲット地点にまで到達したか否かを、同様に認識し、採点を行う。
なお、この際、一つのマス目に立っていられる時間を制限したり、指示通りの移動経路でなければ減点したり、途中の通過点を指定したりなど、種々のゲーム性を持たせることが可能である。
マス目移動アプリによって、高次脳機能障害を患っている患者の遂行機能及び/又は記憶力の向上が期待できる。
なお、各アプリにおける採点基準は、特に本発明を限定するものではない。たとえば、数字抹消アプリや第1及び第2の選択抹消アプリ、空間配置アプリであれば、ターゲットの消去又は選択の毎に点数を加算していき、間違ったタップがなされたら、点数を減点し、クリアまでの時間をボーナスポイントとして、スコアを採点するとよい。迷路アプリであれば、ターゲット地点への到達毎に点数を加算していき、ゴールに到達したまでの時間をボーナスポイントとして、スコアを採点するとよい。マス目移動アプリであれば、指示された地点の移動に要した時間を基準にスコアを採点するとよい。これらの採点基準は、単なる一例に過ぎず、他の採点方法用いてもよいことはいうまでもない。
図13は、画像処理装置5に記憶されるリハビリ履歴情報のデータ構造を示す図である。図13に示すように、主治医毎に、患者が管理され、各患者について、使用したアプリの種類や、アプリの使用モード(ここでは、測定モードを“1”、トレーニングモードを“2”としている)、リハビリを実施した施術年月日、施術者、アプリのスコア、ターゲットをどのように達成したかを示す達成履歴(タップの時間や正誤など)、視点位置の移動履歴などがリハビリ履歴情報として、画像処理装置5の記憶部55に記憶される。なお、オプションとして、患者がリハビリ時に見ていた動画が記憶されていてもよい。なお、視線位置の移動履歴について、視線の代わりに、患者の向きを用いる場合は、患者の向きの移動履歴となる。したがって、移動履歴を概念的に捉えると、患者の動きに関する情報であると言える。
なお、言うまでも無いことであるが、図13は、あくまでも、リハビリ履歴情報のデータ構造の一例を示すに過ぎず、本発明を限定するものではない。リハビリの履歴が分かるようなデータであれば、リハビリ履歴情報のデータ構造はどのような構造であってもよい。
図14は、医師側端末2におけるスケジュール作成処理(S103)で用いられるスケジュール作成画面の一例を示す図である。図14(a)において、2018年12月20日における患者「田中一郎」のスケジュールが作成される前が示されている。図14(a)の状態で、12月20日の欄が選択されたときのスケジュールの作成の流れを示す図が、図15である。
まず、図15(a)に示すように、リハビリスケジュールを選択する画面が立ち上がる。ここで、施術日を入力し、リハビリメニューを選べるようになっている。プルダウンを選ぶと、過去に作成した既存のメニューが選択できるようになっている。ここでは、「田中1」及び「田中2」が既存のメニューであるとしている。ここでは、新たに「田中3」というメニューを作成する流れを示す。
図15(a)の「+」のボタンを選択すると、メニューの編集画面(図15(b))が立ち上がる。図15(b)の画面で新規のメニュー名を入力し(ここでは、「田中3」)、使用するアプリを選択できるようになっている。アプリ選択を選ぶと、図15(c)に示すアプリの追加画面が立ち上がる。検査モードとトレーニングモードのタブがあり、モードのタブ毎に、障害のある機能に有効なアプリが選べるようになっている。
ここでは、障害のある機能として、空間認知力、遂行能力、記憶力、情報獲得力、注意力、及び抑制力を用いている。障害毎に、アプリが選択できる。なお、各障害に有効なアプリは、重複していてもよい。すなわち、各アプリには、アプリを実施することによって改善が見込まれる障害が少なくとも1つ対応付けられている。
図15(d)は、アプリの選択後の画面である。ここでは、「田中3」というメニューに「数字抹消」、「第1の選択抹消」、及び「第2の選択抹消」のアプリが選択されたことが示されている。そして、保存ボタンを押すことで、「田中3」というメニューが保存され、かつ、12月20日のメニューに、追加される(図14(b))。
なお、言うまでもないことであるが、図14及び図15に示すスケジュールメニューの作成の流れや画面は、あくまでも一例に過ぎず、本発明を限定するものではない。当業者が周知のあらゆる手法を用いて、当業者が、スケジュールメニューの作成を行うことが本発明には含まれる。
また、リハビリメニューとして、デフォルトで、典型的なメニューを選択できるようにしておいてもよい。
図16は、施術者側端末4でのリハビリメニューの選択の画面の一例を示す図である。図16(a)は、基本画面である。基本画面には、「検査開始(スケジュール)」、「検査開始(スポット)」、「リハビリメニューダウンロード」、及び「リハビリ結果送信」のボタンが存在する。「検査開始(スポット)」については、第2の実施形態で用いるボタンであるので、ここでは、説明を省略する。
まず、施術者は、「リハビリメニューダウンロード」を押して、スケジュールダウンロード処理(S302)を実行する。本実施形態では、施術者側端末4は、ダウンロードする日に実行するリハビリメニューがダウンロードする設定としている。ただし、施術日を指定したり、患者を指定したりして、リハビリメニューをダウンロードするようにしてもよいことは言うまでもない。
図16(b)は、リハビリメニューのダウンロード画面の一例を示す図である。ダウンロードボタンを押すと、本日実施するリハビリメニューが、サーバ3からダウンロードできるようになっている。「ダウンロード済みリハビリメニュー」に、すでにダウンロードしたリハビリメニューが、表示されている。どれかのメニューを選択すると、「リハビリメニューの詳細」の欄に、メニューの詳細が表示される。このようにして、まずは、リハビリメニューをダウンロードしておいて、施術者は、リハビリ実行の準備を進めておく。
実際にリハビリを開始する際には、施術者は、「検査開始(スケジュール)」を押す。すると、図16(c)に示すような画面に遷移する。図16(c)に示すように、施術担当者を選択して、ダウンロード済みのメニューが選択できるようになっている。ここでは、「田中2」が選択されているとしている。また、HMDの項目で、使用する画像処理装置5を選択できるようになっている。このようにして、メニューを選択すると、図17(a)に示すような画面に遷移する。
図17(a)に示す画面では、「特許五郎」という施術者が、「田中2」というメニューを、「端末A」という画像処理装置5を用いて実施する状態が示されている。ここで、アプリの詳細が図17(a)に記載のように、画面に表示されている。表示内容はあくまでも一例であるが、ここでは、「数字抹消アプリ」を使用した場合の詳細な設定が表示されている。ここでは、詳細項目は、「ボール(数字を表示するボールのこと)の色」、「ボールの数」、「文字の大きさ」、「ヒント表示猶予(ヒント表示までの猶予時間)」、「設定範囲(数字が視線を中心に何度の角度の範囲で表示されているか)」、「モード(測定モードかトレーニングモードか)」、「抹消方法(ジェスチャー、凝視、タップなど)」、「制限時間(クリアまでの制限時間)」であるとしている。これらの項目は、アプリ設定条件の一例である。
なお、測定モードとは、リハビリの成果を測定するために、予め決められた問題を繰り返し出題するモードである。予め決められた問題は、一つとは限らず、複数パターンの問題であってもよい。トレーニングモードとは、様々なパターンの問題を出題して、リハビリの成果を得るためのモードである。第1の実施形態では、トレーニングモードでは、ランダムに問題を生成するとしている。
編集ボタンを押すことで、アプリ設定条件の詳細項目の内容を調整できるようになっている。
「前のアプリ」又は「次のアプリ」を押すことで、実行予定のアプリの詳細が順に表示される。同様に、各アプリについても、アプリ設定条件の詳細項目の内容を調整できるようになっている。
アプリ設定条件の詳細項目の編集は必須ではない。デフォルトで設定されている条件でよければ、詳細項目を編集する必要はない。
図17(a)において、「実行」ボタンを押すことで、施術者側端末4から画像処理装置5に対して、リハビリのメニューと詳細な設定が送信されて、リハビリが開始される。
なお、言うまでもないことであるが、図17(a)に示す画面例はあくまでも一例に過ぎず、本発明を限定するものではない。
図17(b)は、リハビリ中の施術者側端末4に表示される画面の一例を示す図である。ここでは、数字抹消アプリが実行されているとする。「患者の見え方」の欄に、患者が実際に見ている画像が表示される。「患者の見え方」の欄に表示される画像は、VRの場合であれば、仮想空間上の画像であり、AR及びMRの場合であれば、現実空間の画像に仮想の対象物を合成した画像である。
図17(b)に示すように、視線がたとえば黒丸で示されている。「次は1番」と表示されているように、次のターゲットが表示されている。「中止」を押すと、リハビリを施術者側で中止できる。「助言」を押すと、次のターゲットについてのヒントが画像処理装置5に表示される。ヒントとしてはたとえば、次のターゲットの位置を示す矢印などが考えられる。
図18(a)に示すように、視線がターゲットの上に位置すると、視線がたとえば二重丸に変化する。その状態で、タップが患者によって行われると、図18(a)に示すように、ターゲットが消去される。
図17(b)~図18(b)に示した施術者側端末4におけるリハビリ中の画面例は一例に過ぎず、本発明を限定するものではないことは言うまでもない。また、ここでは、数字抹消アプリの場合のみを図示したが、他のアプリについても、同様に、患者の見ている画像が、施術者側端末4に表示されるようになっていればよい。
図17(b)~図18(b)に示したような患者の視線から見えている画像は、施術者側端末4から、ネットワーク6及びサーバ3を介して、医師側端末2に同時配信されるようにしてもよい。これにより、医師側端末2でも、リハビリの状況を遠隔地から、ほぼリアルタイムに把握することができる。
アプリの実行中、画像処理装置5は、リハビリ履歴情報を順次記憶していく。
アプリがクリアされると、画像処理装置5は、リハビリ履歴情報を施術者側端末4に送信する。リハビリ履歴情報が施術者側端末4に送信されると、施術者側端末4は、アプリの実行結果を表示する。図19は、施術者側端末4に表示されるアプリの実行結果の画面の一例を示す図である。
図19に示すように、施術者側端末4は、スコア(ここでは、47点)を表示し、タップ履歴を表示する。タップ履歴は、一つのタップに至るタップ時刻や所要時間、タップした対象(ターゲット又は非ターゲット)の番号、正誤などである。ここでは、数字抹消アプリの例を示しているが、各アプリについて、各アプリに適したタップ履歴を、施術者側端末4が表示するとよい。また、施術者側端末4では、アプリの設定内容を確認(設定確認)できるようになっている。
施術者側端末4は、画像処理装置5から得たリハビリ履歴情報を記憶しておき、図16(a)に示す「リハビリ結果送信」を施術者が押すことで、リハビリ履歴情報が送信される(S306)。ただし、施術者のアクションなく、施術者側端末4は、自動で、サーバ3にリハビリ履歴情報を送信してもよい。また、リハビリ履歴情報については、複数の患者の情報をまとめて送信してもよいし、患者毎に送信してもよい。
医師側端末2では、サーバ3からダウンロードしたリハビリ履歴情報に基づいて、リハビリの成果を視覚的に分かりやすく表示することができる。図20は、医師側端末2でのリハビリ履歴情報の表示の一例を示す図である。まず、前提として、各アプリには、それぞれ、アプリを実施することによって改善が見込まれる障害が少なくとも1つ対応付けられており、アプリ毎に、リハビリが有効な空間認知力等の機能障害が決められている。たとえば、数字抹消アプリであれば、注意力に有効であり、第1の選択抹消アプリであれば、注意力及び/又は空間認知力に有効であり、第2の選択抹消アプリであれば、注意力及び/又は抑制力に有効であり、空間配置アプリであれば、空間認知力及び/又は情報獲得力に有効であり、迷路アプリであれば、空間認知力及び/又は遂行機能に有効であり、マス目移動アプリであれば、記憶力及び/又は遂行能力に有効である。そして、アプリの実行スコア毎に、各機能障害の状況を判定することができる。
たとえば、図20(a)に示すように、機能障害毎のスコアをグラフ化することで、患者の現在の機能障害の度合いを医師が容易に把握することができる。たとえば、図20(a)に示す例では、抑止力及び記憶力が極端に低下していることが、一目で分かるようになっている。ここでは、レーダ式のグラフで表現しているが、用いるグラフとしては、周知のあらゆるグラフを用いることができるのであり、グラフの種類は、本発明を限定するものではない。
また、図20(b)に示すように、機能障害毎のスコアを時系列のグラフに表すことで、患者のリハビリの成果を確認することができる。図20(b)に示す例では、日を追う毎に、各機能障害についてのスコアが上昇傾向にあることが確認できるので、リハビリの成果が出てきていると言える。ここでは、折れ線グラフで表現しているが、用いるグラフとしては、周知のあらゆるグラフを用いることができるのであり、グラフの種類は、本発明を限定するものではない。
なお、一つのアプリに、改善の見込まれる複数の障害が対応付けられている場合もあるが、その場合は、一つのアプリの実施によって、複数の障害のスコアが表示される。
また、一つの障害に、複数のアプリが対応付けられている場合もあるが、その場合は、その障害に対応する複数のアプリのスコアの平均値や重み付け平均値などを用いて、その障害のスコアが表示される。
図21(a)は、リハビリ履歴情報の詳細を医師側端末2で閲覧した場合の表示画面の一例を示す図である。リハビリ履歴情報として、医師側端末2では、患者毎に、施術年月日、使用したアプリ、モード、施術者、及びスコアが表示されるようになっている。また、図21(a)の詳細を選ぶと、図21(b)に示すように、アプリ実行時のリハビリの様子を詳細に確認することができるようになっている。
図21(b)に示す画面の例では、数字抹消アプリの場合の患者の動きが再現されて表示されている。医師がこのような患者の動きの履歴を確認すれば、患者がどのような障害を有しているか診断可能である。患者の動きは、適宜、再生ボタンを押すことで、順に再生させることも可能であるが、必須ではない。また、ここでは、図示していないが、患者のリハビリ時の施術者側端末4に表示されていた動画を、サーバ3に記憶しておいて、医師側端末2でダウンロードして、表示するようにしてもよい。また、図21(b)に示す画面の例では、タップ履歴の表も表示されている。これらの詳細な表示は、アプリ毎に、適宜、設計して決めればよいものである。言うまでもないが、ここに図示した例は、一例に過ぎず、本発明を限定するものではない。図21(b)のような表示は、施術者側端末4において行われてもよい。
以上のような画面遷移の一例を念頭に、各装置での動作の詳細について、以下、フローチャートを参照しながら説明する。
図22は、医師側端末2でのスケジュールの作成処理のフローチャートである。まず、前提として、医師側端末2の制御部21は、スケジューリング兼閲覧プログラムを記憶部25から読み込んで実行しているものとする。
医師側端末2の制御部21は、施術日の指定を受け付けるための表示を表示部23に表示させて、入力部22からの施術日の指定を受け付ける(S501)。なお、以下、冗長な説明を避けるために、表示部23及び入力部22と制御部51との関係が当業者にとって明らかな場合は、単に、「制御部21は、施術日の指定を受け付ける。」と表現して、表示部23及び入力部22との関係については、記載を省く(図23以降のフローチャートについても同様)。また、制御部21が記憶部25に情報を保存する場合についても、単に、「制御部21は、情報を保存する。」とのみ表現して、冗長な記載をさけることとする(図23以降のフローチャートについても同様)。
次に、制御部21は、メニューの選択か又は作成のどちらかを受けつける(S502)。
メニューの選択を受け付けた場合、制御部21は、リハビリメニュー情報に基づいて、既存のメニューを選択させて(S503)、施術日と紐付けて、スケジュール情報として保存する(S504)。
一方、S502において、メニューの作成を受け付けた場合、制御部21は、表示部23にメニューを作成させるための画面を表示させる(S505)。次に、制御部21は、メニュー名称を受け付ける(S506)。次に、制御部21は、使用するアプリを選択させる(S507)。次に、必要に応じて、制御部21は、アプリ設定条件を調整させる(S508)。S508の動作は、任意であり、医師が必要であると考えれば行われる動作である。そして、制御部21は、作成されたメニューを新しいメニューとして、リハビリメニュー情報として保存し、さらに、施術日を紐付けして、スケジュール情報として、保存する(S504)。
制御部21は、保存したリハビリメニュー情報及び/又はスケジュール情報を通信部24を介して、サーバ3にアップロードする(図6のS104)。
図23は、施術者側端末4でのスケジュールのダウンロード処理を示すフローチャートである。前提として、施術者側端末4の制御部41は、リハビリ処理プログラムを記憶部45から読み込んで実行しているものとする。
施術者側端末4の制御部41は、ユーザからの指示に応じて、通信部44を介して、サーバ3に対して、リハビリメニュー情報及びスケジュール情報のダウンロードを要求する(S601)。制御部41は、当日分のリハビリメニュー情報及びスケジュール情報をダウンロードして(S602)、保存する(S603)。なお、ここでは、当日分だけをダウンロードするとしているが、それに限定されるものではなく、複数日分や指定した日の分などをダウンロードしてもよいのは言うまでもない。
図24は、施術者側端末4でのリハビリ開始指示のフローチャートである。前提として、施術者側端末4の制御部41は、リハビリ処理プログラムを記憶部45から読み込んで実行しているものとする。
施術者側端末4の制御部41は、施術者を選択させる(S701)。次に、制御部41は、選択した施術者が担当する患者のリハビリメニューを選択させる(S702)。次に、制御部41は、使用する画像処理装置5を選択させ、選択された画像処理装置5との通信を開始する(S703)。ここで、適宜、制御部41は、アプリ設定条件の調整を受け付ける(S704)。準備が整ったら、制御部41は、アプリを実行するように、画像処理装置5に対して、指示を行う(S705)。
以上のように、画像処理装置5へのアプリの実行指示がなされた上で、画像処理装置5にて、指示がなされたアプリが実行され、リハビリが実地される。以下、各アプリでの画像処理装置5の動作について、説明する。
図25は、数字抹消アプリを実行中の画像処理装置5の動作を示すフローチャートである。前提として、画像処理装置5の制御部51は、アプリ実行プログラムを読み込んで、実行しており、施術者側端末4から指示されたアプリを指示された設定条件で、実行するものとする。また、前提として、図25に示す動作は、MRの場合を想定しているが、適宜、VR及びARの場合の動作について、説明を加えていく。
図25において、まず、制御部51は、カウントダウンの表示を表示部53に表示させて、アプリを実行する位置をユーザが向くための時間を与える(S801)。なお、カウントダウン処理は、必須でなく、アプリの実行が開始したときの画像処理装置5の位置を開始位置としてもよいし、開始位置をユーザのタップ等の入力に合わせて、決定してもよい。
次に、MRの場合、空間認識部57は、内蔵されているカメラを用いて、周囲の3次元空間を認識して、3次元データ化する(S802)。次に、トラッキング部58は、画像処理装置5の位置や傾きを認識する(S803)。制御部51は、S802及びS803の処理によって、画像処理装置5の3次元空間上の位置を把握して、3次元空間のどの位置に、画像処理装置5が存在しているかを認識する。なお、空間認識のための処理や、トラッキングのための処理については、画像処理装置5のOSが行う場合も、本発明に含まれる。また、空間認識処理については、内蔵されているカメラによる画像認識に限らず、深度カメラや、赤外線センサ、レーザ照射など、その他の各種センサや検出機などを用いて行われる場合も、本発明に含まれる。
VRの場合は、制御部51は、S802で仮想空間の3次元データを生成し、S803で画像処理装置5の位置や傾きを認識して、仮想空間上に画像処理装置5がどこに位置しているかを認識する。
ARの場合は、制御部51は、S802及びS803で、周辺の画像を撮影し、問題を合成する領域を決定する。
次に、制御部51は、数字抹消のための問題を生成する(S804)。ここで、問題生成処理について、詳しく説明する。アプリ設定条件に基づいて、制御部51は、問題を生成する。モードが測定モードである場合は、固定した問題を3次元データ上に配置する。モードがトレーニングモードである場合は、ランダムに生成した問題を3次元データ上に配置する。配置する範囲は、アプリ設定条件で指定されている設定範囲(視線を中心とした角度)とする。その他ターゲットの色や数、大きさなどのアプリ設定条件に基づいて、問題が生成されることとなる。
制御部51は、生成した問題を、3次元データ上に配置する(S805)。その後、数字抹消アプリの実行が進んでいくこととなるが、アプリの実行と平行して、画像処理部50による描画処理が行われる(S806)。
図26は、画像処理部50における画像の描画処理のフローチャートである。画像の描画処理は、高速かつ大量の計算を必要とするため、ここでは、制御部51とは別の画像処理部50によって、処理が実行されているとしているが、当然、制御部51の性能によっては、制御部51が実行してもよいことは言うまでもない。
画像処理部50は、トラッキング部58からの情報に基づいて、画像処理装置5の3次元データ上での位置及び傾きを検出する(S901)。次に、視線検出部59からの情報に基づいて、3次元データ上での視線の向きを検出する(S902)。次に、画像処理部50は、画像処理装置5の現在位置及び傾き並びに視線の向きに応じて、仮想空間の対象物を3次元データ上に配置し(S903)、表示部53に表示させる画像を決定して、当該画像を表示させる(S904)。このような処理がフレーム毎に実施されることで、画像処理装置5の動きに合わせて、現実空間上に、仮想の画像が存在するかのような表示を表示部53に表示させることが可能となる。
VRの場合は、画像処理部50は、表示部53に仮想空間の画像上に、対象物を配置した画像を表示させる点を除いては、上記MRの場合と同様である。
ARの場合は、画像処理装置5の撮像している現実空間の画像を認識して、画像処理装部50は、仮想空間の対象物を合成する。
図27は、図25の動作の続きを示すフローチャートである。制御部51は、視線とターゲットとが重なっているか否かを判断する(S1001)。重なっていない場合、制御部51は、そのまま、視線を示す画像の描画を継続する(S1002)。一方、重なっている場合は、制御部51は、視線を示す画像を重なっていることを示す画像に表示を変更する(S1003)。
なお、S1001において、MR及びVRの場合は、視線の位置とターゲット位置との比較によって、制御部51は、重なりを判断することができる。ARの場合は、視線の位置が認識されていないので、S1001~S1004において、制御部51は、患者の指先がターゲットと重なっているか否かや、患者がタブレット端末5eのディスプレイを直接タップ(指で触って位置指定するなど)したか否かなどを画像認識やタッチセンサなどで判断することで、タップが行われたか否かを判断することとする。
S1003の状態で、タップが行われたか否かを判断する(S1004)。タップが行われなければ、制御部51は、S1001の動作に戻る。したがって、S1003の動作に一旦進んだとしても、タップまでに、途中で、重なりが外れれば、制御部51は、S1002の動作に進んでいくことになる。
タップが行われた場合、制御部51は、正誤を判断し、正解の場合はターゲットを3次元データ上から消滅させて、ターゲットを消滅した表示を行う(S1005)。不正解の場合は、制御部51は、不正解である旨の表示を表示部53に表示させる(S1005)。
タップによって、制御部51は、リハビリ履歴情報を記憶部55に記憶させる(S1006)。リハビリ履歴情報の記憶は、抹消動作毎に行われる。
抹消動作の後、制御部51は、全てのターゲットが消滅して問題をクリアしたか否かを判断する(S1007)。問題がクリアできていない場合は、制御部51は、S1001の動作に戻る。一方、問題がクリアできた場合は、制御部51は、予め決めた採点基準に基づいて、スコアを採点する(S1008)。スコアがリハビリ履歴情報として記憶部55に記憶される。そして、制御部51は、通信部54を介して、記憶部55に記憶されているリハビリ履歴情報を、施術者側端末4に送信する(S1009)。なお、リハビリ履歴情報の保存方法については、特に限定されないが、たとえば、画像処理装置5は、予め決められた時間毎に、位置と視線などの情報を保存しておき、スコアと共に、リハビリ履歴情報として、施術者側端末4に送信するとよいが、限定されるものではない。また、画像処理装置5は、リハビリ履歴情報を、一定時間毎に、施術者側端末4に送信してもよい。
図28は、第1の選択抹消アプリを実行の画像処理装置5の動作を示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図28において、図25における動作と同様の動作については、同一の参照符号を付すこととし、異なる点についてのみ説明する。
第1の選択抹消アプリは、数字抹消アプリと異なり、ターゲットを抹消する順序は問わない。したがって、図28の続きとなる図27のフローチャートにおけるS1005の正誤判断において、ターゲット(正解のターゲット)が選択されて抹消されれば、正解とし、抹消の順序を問うことなく採点する。
図29は、第2の選択抹消アプリを実行の画像処理装置5の動作を示すフローチャートである。図30は、図29の動作の続きを示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図29及び図30において、図25及び図27における動作と同様の動作については、同一の参照符号を付すこととし、異なる点についてのみ説明する。
第2の選択抹消アプリは、数字抹消アプリと異なり、ターゲットを抹消する順序は問わない。第2の選択抹消アプリは、第1の選択抹消アプリと異なり、正解のターゲットを選択した場合、ターゲットの表示が変更になるが、消滅はしない。また、第2の選択抹消アプリは、表示が変更されたターゲットを選択してしまうと不正解とする。なお、正解以外のターゲットを選択した場合、スコアには何ら影響がないとしてもよいし、また、不正解としてスコアに影響するようにしてもよいが、限定されるものではない。したがって、図29の続きとなる図30のフローチャートにおけるS1005bの正誤判断において、ターゲットが選択されれば、制御部51は、ターゲットの表示を変更して、抹消の順序を問うことなく正解として採点する。
図31は、空間配置アプリを実行の画像処理装置5の動作を示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図31において、図25における動作と同様の動作については、同一の参照符号を付すこととし、説明を省略する。
図31において、トラッキング部58が、画像処理装置5の位置や傾きを認識した(S803)後、制御部51は、アプリ設定条件に合わせて、表示部53に仮想の通路を表示させる(S1101)。仮想の通路は、仮想の壁を表示するための目印となるものであり、仮想の通路の位置を決めることで、仮想の壁の位置が決まるものとする。患者が、画像処理装置5の位置を調整すると、それに合わせて、仮想の通路の位置も調整される。仮想の通路が、現実空間の障害物と重なって配置されてしまっては、患者が現実空間上を歩行することができないので、患者は、障害物が存在しない領域に仮想の通路が表示されるように、画像処理装置5の位置を調整する。仮想の通路の位置の調整が完了したら、患者によって、タップが行われる。それに応じて、制御部51は、仮想の通路の位置を決定する(S1102)。仮想通路の位置が決定すると、制御部51は、3次元データ上に、仮想通路を示すデータを反映させる。
S1101~S1102の動作は、MR,VR及びAR共に同様である。すなわち、MRの場合は、制御部51は、仮想通路を現実空間と重なるように表示し、VRの場合は、制御部51は、仮想空間上に仮想通路を表示し、ARの場合は、制御部51は、撮影している現実空間の映像に仮想通路を合成して表示するようにすればよい。
次に、制御部51は、アプリ設定条件に合わせて、仮想通路に沿った仮想の壁面の3次元データを生成する(S1103)。制御部51は、アプリ設定条件に合わせて、仮想壁面の上に、ターゲットを配置するようにターゲットの位置を決定する問題を生成する(S1104)。制御部51は、測定モードの場合、固定的にターゲットの位置を決定し、トレーニングモードの場合、ランダムにターゲットの位置を決定する。制御部51は、生成した問題を、3次元データ上に配置する(S805)。その後、画像処理部50が、図26(S806)の動作を、問題の採点と平行して実行する。
問題の採点は、基本的には、第1の選択抹消アプリの動作(図27)と同様である。数字抹消アプリと異なり、S1005の動作において、ターゲットの抹消の順番は問わない。
図32は、迷路アプリを実行の画像処理装置5の動作を示すフローチャートである。図33は、図32の動作の続きを示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図32及び図33において、図25及び図27における動作と同様の動作については、同一の参照符号を付すこととし、説明を省略する。
図32において、トラッキング部58が、画像処理装置5の位置や傾きを認識した(S803)後、制御部51は、アプリ設定条件に合わせて、表示部53に仮想のマス目を表示させる(S1201)。仮想のマス目は、迷路のための仮想の壁を表示するための目印となるものであり、仮想のマス目の位置を決めることで、仮想の壁の位置が決まるものとする。患者が、画像処理装置5の位置を調整すると、それに合わせて、仮想のマス目の位置も調整される。仮想のマス目が、現実空間の障害物と重なって配置されてしまっては、患者が現実空間上を歩行することができないので、患者は、障害物が存在しない領域に仮想のマス目が表示されるように、画像処理装置5の位置を調整する。仮想のマス目の位置の調整が完了したら、患者によって、タップが行われる。それに応じて、制御部51は、仮想のマス目の位置、すなわち、迷路を配置する位置を決定する(S1202)。仮想迷路の位置が決定すると、制御部51は、3次元データ上に、仮想のマス目を示すデータを反映させる。
S1201~S1202の動作は、MR,VR及びAR共に同様である。すなわち、MRの場合は、制御部51は、仮想マス目を現実空間と重なるように表示し、VRの場合は、制御部51は、仮想空間上に仮想マス目を表示し、ARの場合は、制御部51は、撮影している現実空間の映像に仮想マス目を合成して表示するようにすればよい。
次に、制御部51は、アプリ設定条件に合わせて、仮想マス目に沿った迷路用の仮想の壁面のデータを生成する(S1203)。制御部51は、アプリ設定条件に合わせて、仮想マス目の上に、ターゲットを配置するようにターゲットの位置を決定する問題を生成する(S1204)。制御部51は、測定モードの場合、固定的にターゲットの位置を決定し、トレーニングモードの場合、ランダムにターゲットの位置を決定する。制御部51は、生成した問題を、3次元データ上に配置する(S805)。その後、画像処理部50が、図26(S806)の動作を、問題の採点と平行して実行する。
問題のクリアの判断は、図33の流れに即して実行される。制御部51は、空間認識部57からの情報に基づいて、画像処理装置5の現在位置を把握し、現在位置のマス目の表示を変更する(たとえば、マス目の色を変えるなどする)(S1301)。次に、制御部51は、現在のマス目の位置がターゲットの位置であるか否かを判断する(S1302)。現在位置がターゲットの位置でない場合、制御部51は、S1301の動作に戻る。
S1302において、MR及びVRの場合は、現在位置とターゲット位置との比較によって、制御部51は、ターゲット位置への到達を判断することができる。ARの場合は、現在位置が認識されていないので、S1301及びS1302において、制御部51は、画像処理装置5の周辺の画像を認識して、ターゲット位置に到達しているか否かで、判断することとする。
現在位置がターゲットの位置である場合、制御部51は、ターゲットを消滅させて(S1303)、リハビリ履歴情報に反映させる(S1304)。次に、制御部51は、全ターゲットが消滅したか否かを判断する(S1305)。全ターゲットが消滅していない場合、制御部51は、S1301の動作に戻る。全ターゲットが消滅している場合、制御部51は、現在位置がゴール地点に到達するまで処理を継続し、ゴール地点に到達したら(S1306)、採点(S1008)及びリハビリ履歴情報の送信(S1009)に進む。
ゴール地点に到達したか否かの判断については、MR、VR、及びARの場合共に、S1302の動作で説明したのと同様である。
なお、ここでは、全ターゲットが消滅した後でないとゴールできないこととしているが、全ターゲットが消滅していなくても、ゴール地点に達したら、制御部51は、クリアしたと判断して、採点してもよい。その場合、制御部51は、ターゲットが消滅していないことを減点するなどして採点結果に反映させるとよいが、本発明を限定するものではない。
図34は、マス目移動アプリを実行の画像処理装置5の動作を示すフローチャートである。図35は、図34の動作の続きを示すフローチャートである。ここでの前提条件は、図25の場合と同様である。また、図34及び図35において、図25、図27、図32、及び図33における動作と同様の動作については、同一の参照符号を付すこととし、説明を省略する。
図34において、S1202までは、図32と同様に、仮想マス目の位置が決定される。その後、制御部51は、仮想マス目用のデータを生成する。画像処理部50は、3次元データ上に、仮想マス目を示すデータを反映させる(S1401)。制御部51は、アプリ設定条件に合わせて、問題を生成する(S1402)。ここで生成される問題は、スタートの位置と、移動方向を示す問題である。制御部51は、測定モードの場合、固定的にターゲットの位置を決定し、トレーニングモードの場合、ランダムにターゲットの位置を決定する。制御部51は、生成した問題に基づいて、図35のクリア判断の動作に進む。
問題のクリアの判断は、図35の流れに即して実行される。制御部51は、現在位置のマス目の表示を変更する(S1301)。制御部51は、スタート位置をマス目上に表示させる(S1501)。制御部51は、現在位置がスタート位置に到達したか否かを判断する(S1502)。スタート位置に到達した場合、制御部51は、問題を表示させる(S1503)。制御部51は、問題で指定されたクリア位置に達したか否かを判断する(S1504)。クリア位置に達するまで、問題が表示される。クリア位置に達した場合、制御部51は、採点(S1008)及びリハビリ履歴情報の送信(S1009)に進む。
なお、MR、VR、及びAR毎のスタート位置への到達やクリア位置への到達判断については、図33のターゲット位置への到達判断と同様である。
このように、第1の実施形態によれば、仮想現実、拡張現実、又は複合現実を用いた画像によるリハビリを実行する画像処理装置5において、リハビリ履歴情報が記憶されて、当該リハビリ履歴情報が施術者側端末4及び医師側端末2において、共有することができる。したがって、医師及び施術者が患者のリハビリテーションの状況を把握しやすくなり、その結果、適切なリハビリテーションメニューを構築することができるよう
特に、拡張現実用の画像処理装置を用いて、現実空間上に、高次脳機能障害のリハビリテーションに使用する仮想の対象物の画像が存在するかのような問題を生成することで、患者が、いわゆるVR酔いや転倒などという状況に陥る危険性が軽減する。よって、患者が違和感なく、安全に、リハビリテーションを行うことができることとなる。
(第2の実施形態)
第2の実施形態は、図16(a)に示した「検査開始(スポット)」の場合の動作を示す。第1の実施形態では、医師側端末2が作成したスケジュールでリハビリメニューが決められることとした。しかし、医師の指示の下、具体的なリハビリの内容については、施術者が決定するということも、リハビリを行う国の法制度によっては、あり得る。また、医師が、リハビリテーションシステム1を用いずに、別な手段(口頭や電子メール、グループウエア、紙など)を用いて、施術者にリハビリの方針を指示する場合もあり得る。そこで、本発明のリハビリテーションシステム1には、施術者が単独でリハビリメニューを組んで、リハビリを行うことができるようになっている。
図36は、第2の実施形態における施術者側端末4と画像処理装置5との間の動作の流れを示すフローチャートである。まず、施術者側端末4は、使用するアプリを選択し(S1601)、使用する画像処理装置5を選択する(S1602)。施術者側端末4は、施術者の指示に応じて、リハビリ設定条件を調整する(S1603)。次に、施術者側端末4は、施術者の指示に応じて、アプリの実行指示を画像処理装置5に対して行う(S1604)。
その後は、第1の実施形態と同様にして、画像処理装置5は、アプリの実行処理を行う(S1605)。アプリの実行中、施術者側端末4は、患者の視線画像を表示する(S1606)。アプリの実行が完了すると、画像処理装置5は、リハビリ履歴情報を施術者側端末4に送信する(S1607)。施術者側端末4は、リハビリ履歴情報を受信して(S1608)、保存する(S1609)。施術者側端末4は、リハビリ履歴情報を患者と紐付けて、保存しておく。施術者側端末4は、リハビリ履歴情報をサーバ3にアップロードすることができる。医師側端末2は、スポットで実施されたリハビリ履歴情報を、サーバ3からダウンロードすることができる。
このように、第2の実施形態では、施術者側端末からも、リハビリメニューが指定できるので、施術者が臨機応変にリハビリを実施することが可能となる。
図37は、医師側端末2及び/又は施術者側端末4での数字抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。図37に示すように、数字抹消アプリでは、たとえば、ターゲットの色、数、文字の大きさ、ヒント表示の猶予時間、設定範囲、モード、抹消方法、制限時間などを調整することができる。
図38は、医師側端末2及び/又は施術者側端末4での第1の選択抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。図38に示すように、第1の選択抹消アプリでは、たとえば、正解ターゲットの種類や数、不正解ターゲットの種類や数、設定範囲、モード、抹消方法、制限時間などを調整することができる。
図39は、医師側端末2及び/又は施術者側端末4での第2の選択抹消アプリでのアプリ設定条件の設定画面の一例を示す図である。図39に示すように、第2の選択抹消アプリでは、たとえば、正解ターゲットの種類や数、設定範囲、モード、抹消方法、制限時間などを調整することができる。
図40は、医師側端末2及び/又は施術者側端末4での空間配置アプリでのアプリ設定条件の設定画面の一例を示す図である。図40に示すように、空間配置アプリでは、壁の種類、道の長さ、道幅、壁の高さの最低値、壁の高さの最高値、正解ターゲットの種類や数、不正解ターゲットの種類や数、モード、抹消方法、制限時間などを調整することができる。
図41は、医師側端末2及び/又は施術者側端末4での迷路アプリでのアプリ設定条件の設定画面の一例を示す図である。図41に示すように、迷路アプリでは、モード、迷路の横幅のマス数、奥行きのマス数、通路の幅、壁の高さ、正解ターゲットの種類や数、制限時間などを調整することができる。
図42は、医師側端末2及び/又は施術者側端末4でのマス目移動アプリでのアプリ設定条件の設定画面を示す図である。図42に示すように、マス目移動アプリでは、横幅のマス数、奥行きのマス数、移動回数(何回移動してターゲット地点とするか)、繰り返し回数(全部で何回問題が出されるか)、停止可能実行時間(1マスに停止できる時間)、モード、制限時間などを調整することができる。
ここに示したアプリ設定条件は、あくまでも、一例に過ぎず、いかようにでも変更してよく、本発明を限定するものではない。
(その他の実施形態)
画像処理装置5で実行されるアプリ実行プログラムにおいて、バーチャルトレーナーが表示されるようになっていてもよい。図43は、画像処理装置5に表示されるバーチャルトレーナーの一例である。
画像処理装置5は、表示部53に、バーチャルトレーナーのアバター画像を表示させる。バーチャルトレーナーは、文字又は音声で、励ましの言葉やヒントとなる言葉を出力する。
バーチャルトレーナーを用いることで、施術者の負担が軽減できる。
また、問題の難易度は、自動的に調整できるようになっているとよい。図44は、問題の難易度を自動的に調整できるようにしたときの医師側端末2及び/又は施術者側端末4の動作を示すフローチャートである。以下、説明の簡略化のために、難易度の設定及び弱点に対応した問題の作成は、施術者側端末4で行っているものとするが、医師側端末2で行ってもよい。また、在宅リハビリを想定した場合、スマートフォンやタブレット端末等の画像処理装置5c,5eによって、患者がリハビリを自宅等で行うことも考えられる。そのような場合、バーチャルトレーナーは有用である。また、在宅リハビリの場合に、図44に示すような難易度の自動調整及び弱点に対応した問題の作成は、画像処理装置5で行われてもよいし、サーバ3で行われてもよい。すなわち、難易度の調整を、どの機器が行うかは、本発明を限定するものではない。
施術者側端末4は、患者属性データを読み込み(S1901)、対応する患者の前々回の結果データを読み込み(S1902)、前回の結果データを読み込む(S1903)。そして、施術者側端末4は、前回の結果データと前々回の結果データとを比較し、成績がよくなっているかを判断する(S1904)。
そして、前回の成績が前々回の成績よりも高い場合、施術者側端末4は、難易度を前回よりも高く設定する(S1905)。前回の成績と前々回の成績が同じ場合、施術者側端末4は、難易度を前回と同じに設定する(S1906)。前回の成績が前々回の成績よりも低い場合、施術者側端末4は、難易度を前回よりも低く設定する(S1907)。難易度とは、ターゲットの数や配置範囲などで、設定可能である。ただし、難易度の設定は一例であり、本発明を限定するものではない。
難易度の設定の後、施術者側端末4は、視線履歴に問題があるか否かを判断する(S1908)。ここで、視線履歴に問題があるとは、たとえば、右側のターゲットの選択や抹消についての不正解が多いか否かなどである。S1906の動作は、施術者側端末4が自動で判断してもよいし、施術者又は医師が手動で判断してもよい。
視線履歴に問題が無い場合、施術者側端末4は、標準的な配置ロジックを選択する(S1909)。一方、視線履歴に問題がある場合、施術者側端末4は、弱点を強化する配置ロジックを選択する(S1910)。標準的な配置ロジックとして、たとえば、ランダムにターゲットを配置するロジックが考えられる。弱点を強化するロジックは、たとえば、右側が弱点の場合は、右側へのターゲットの配置を多くするロジックなどが考えられる。ただし、ロジックは一例であり、本発明を限定するものではない。
このようにして、難易度と配置ロジックを設定した上で、施術者側端末4は、問題を生成する際に、難易度と配置ロジックを考慮しても問題を生成するように、画像処理装置5に対して指示する(S1911)。画像処理装置5は、難易度と配置ロジックに基づいて、問題を生成する。
なお、ここでは、前回と前々回とのスコアを比較することで、難易度を調整しているが、比較すべき対象は、前回と前々回とのスコアに限るものではない。前回と何回か前の平均値でもよいし、何回か前の平均値の増減傾向でもよい。いずれにしても、過去のスコアに基づいて、難易度が調整されていればよい。
なお、難易度の調整のみが実施されてもよいし、弱点把握による配置ロジックの調整のみが実施されてもよい。
このように、難易度及び/又は配置ロジックの調整を実現することで、患者のリハビリ効果をより高めることが可能となる。
なお、ターゲットの画像のサイズが変更可能であってもよい。同じ問題の中で、ターゲットの画像のサイズが変わってもよいし、問題の難易度に合わせて、ターゲットの画像のサイズが変わってもよい。
また、ターゲットの画像の色や明るさなどが変更可能であってもよい。同じ問題の中で、ターゲットの画像の色や明るさなどが変わってもよいし、問題の難易度に合わせて、ターゲットの画像の色や明るさが変わってもよい。
これらの調整は、人が手動で設定してもよいし、リハビリ履歴情報に応じて、自動で調整されてもよい。
また、問題の中で、ターゲットは、静止しているだけでなく、移動していてもよい。ターゲットが移動していくことによって、さらなる障害の改善が期待できる。
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示にすぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本明細書に開示されている発明の構成要件は、それぞれ独立に単独した発明として成立するものとする。各構成要件をあらゆる組み合わせ方法で組み合わせた発明も、本発明に含まれることとする。