JP2012148059A - タンジブルデバイスを備えている生体画像処理システム - Google Patents

タンジブルデバイスを備えている生体画像処理システム Download PDF

Info

Publication number
JP2012148059A
JP2012148059A JP2011255456A JP2011255456A JP2012148059A JP 2012148059 A JP2012148059 A JP 2012148059A JP 2011255456 A JP2011255456 A JP 2011255456A JP 2011255456 A JP2011255456 A JP 2011255456A JP 2012148059 A JP2012148059 A JP 2012148059A
Authority
JP
Japan
Prior art keywords
tangible device
image processing
processing system
touch
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011255456A
Other languages
English (en)
Inventor
Yasuhiko Kumagai
靖彦 熊谷
Mitsuhiro Nagahara
三博 永原
Keiaki Boku
啓彰 朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kochi University of Technology
Original Assignee
Kochi University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kochi University of Technology filed Critical Kochi University of Technology
Priority to JP2011255456A priority Critical patent/JP2012148059A/ja
Publication of JP2012148059A publication Critical patent/JP2012148059A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 改良された生体画像処理システムを提供する。
【解決手段】 タンジブルデバイスとデータベースと画像処理部と出力部とを備える生体画像処理システムで、前記デバイスが固体寸法にばらつきのある、特定の種類の生体の1つの形状の全部又は一部を模したものを、拡大、等倍又は縮小した大きさのものであり、表面のタッチ位置を検出し、位置を表す信号を出力する検出手段と、デバイスの2以上の基準位置と3次元画像データの対応する2以上の基準位置とを一対一に対応付ける位置整合手段と、整合された、デバイスと3次元画像データとの位置対応情報に基づいて、前記タッチ位置特定手段によって特定されたタッチ位置に対応する対象物の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを、データベースに記録している3次元画像データに基づいて形成し、出力部に出力する出力手段と、を少なくとも備えている。
【選択図】 図1

Description

本発明は、個体によって寸法にばらつきのある、特定の種類の生体の画像処理システム、例えば、人の医療用の画像処理システムで用いるマン・マシン・インターフェースにタンジブルデバイスを用いるものに関する。
前記個体によって寸法にばらつきのある、特定の種類の生体には、人を含む種々の動物が該当する。例えば、人の医療分野において、被験者の3次元画像を処理するCT、MRI等の画像処理装置では、マン・マシン・インターフェースとして、キーボードの他に、マウス、ペンタブレット、メインディスプレイ全面に取り付けられたタッチパネル等が用いられている。医師は、これらのマン・マシン・インターフェースを操作して、ディスプレイ上に被験者の必要な部位の3次元画像又は2次元画像を表示する。
例えば、下記特許文献1には、小型のタッチパネル式ディスプレイを備え、大型のメインディスプレイに表示させる画像を指定(ポインティング)する、医療画像処理用の補助コントローラ(マン・マシン・インターフェース)が、開示されている。
特開2009−119000号公報
前記小型のタッチパネル式ディスプレイを含め、既存のマン・マシン・インターフェースでは、例えば、ヒト型モデルとの対比において、画面表示している被験者の部位の位置を、分かりやすく正確に説明するのが難しい。
本発明は、前記説明を容易に行なうことができるように、マン・マシン・インターフェースとして新規のタンジブルデバイスを備えている生体画像処理システムを提供することを目的とする。
請求項1記載のタンジブルデバイスを備えている生体画像処理システムは、タンジブルデバイスと、データベースと、画像処理部と、出力部と、を備えている生体画像処理システムであって、前記タンジブルデバイスが、個体によって寸法にばらつきのある、特定の種類の生体の1つの形状の全部又は一部を模したものを、拡大、等倍、又は、縮小した大きさのものであり、表面のタッチ位置を検出し、タッチ位置を表す信号を出力する検出手段を有しており、前記データベースが、対象物の3次元画像データを記録しているものであり、前記画像処理部が、コンピュータ読み取り可能なプログラムを実行することによって、位置整合手段と、タッチ位置特定手段と、出力手段と、を実現するものであり、前記位置整合手段が、タンジブルデバイスの2以上の基準位置と、3次元画像データの対応する2以上の基準位置と、を整合させることによって、前記検出手段によって検出されたタッチ位置と3次元画像データの位置とを一対一に対応付けるものであり、前記タッチ位置特定手段が、前記検出手段からの信号に基づいてタッチ位置を特定するものであり、前記出力手段が、位置整合手段によって整合された、タンジブルデバイスと3次元画像データとの位置対応情報に基づいて、前記タッチ位置特定手段によって特定されたタッチ位置に対応する対象物の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを、データベースに記録している3次元画像データに基づいて形成し、出力部に出力するものであり、前記出力部が、出力手段からの画像データに基づく画像を表示する、ことを特徴とする。
請求項2記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1記載の画像処理システムであって、前記検出手段が、タッチしている、又は、していない、を検出するタッチセンサであり、前記タッチ位置特定手段が、前記センサをタッチしている時間に基づいて、タッチしたのか、又は、タンジブルデバイスを保持するために継続して触っている状態であるのか、の判断を行ない、タッチ位置を特定する、ことを特徴とする。
請求項3記載のタンジブルデバイスを備えている生体画像処理システムは、請求項2記載の画像処理システムであって、前記タッチ位置特定手段が、タッチセンサがタッチされたこと検出し、更に、定めた時間内に、該タッチ位置が再タッチされたことを検出した場合、該再タッチの継続時間に応じて定まる、表面から予め定めた深度までの何れかの位置を特定する、ことを特徴とする。
請求項4記載のタンジブルデバイスを備えている生体画像処理システムは、請求項2記載の画像処理システムであって、前記タッチ位置特定手段が、タッチセンサがタッチされたことを検出し、更に、定めた時間間隔内に、該タッチ位置が1回以上タッチされた場合、再タッチされた回数を検出し、該再タッチの回数に応じて定まる表面から予め定めた深度までの何れかの位置を特定する、ことを特徴とする。
請求項5記載のタンジブルデバイスを備えている生体画像処理システムは、請求項2記載の画像処理システムであって、前記検出手段が、タッチしている部分の情報と、タッチしている部分を押す圧力値の情報と、を検出する感圧センサであり、前記タッチ位置特定手段が、ある圧力値以上の力でタッチされた場合に、タッチされたと判断し、そのときの圧力値に応じて定まる、表面から予め定めた深度までの何れかの位置を特定する、ことを特徴とする。
請求項6記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1乃至5の何れかに記載の画像処理システムであって、前記データベースが、解剖学情報及び/又は辞書情報を、更に記録しており、前記出力手段が、更に、前記検出手段によって検出されたタッチ位置に関係付けられている解剖学情報及び/又は辞書情報を、データベースから検索して出力部に出力する、ことを特徴とする。
請求項7記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1乃至6の何れか1つに記載の画像処理システムであって、前記データベースが、前記検出手段によって検出されたタッチ位置に関連する検索キーワードと、インターネット上にある検索エンジンの情報と、を更に記録しており、前記画像処理部が、前記検出手段によって検出されたタッチ位置に関連する検索キーワードの前記検索エンジンによる検索を行なう検索手段を、実現するものであり、前記出力手段が、検索結果を出力部に、更に出力する、ことを特徴とする。
請求項8記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1乃至7の何れか1つに記載の画像処理システムであって、前記タンジブルデバイスは、前記検出手段によって検出されたタッチ位置を視覚的に知らせる複数の確認手段を備えており、前記画像処理部のタッチ位置特定手段によって特定されたタッチ位置にある確認手段を動作させる、ことを特徴とする。
請求項9記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1乃至8の何れか1つに記載の画像処理システムであって、前記タンジブルデバイスは、対象物の内部をタッチできるように、展開するようになっており、各展開した面にタッチ位置検出手段を備えていることを特徴とする。
請求項10記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1乃至9の何れか1つに記載の画像処理システムであって、前記タンジブルデバイスは、重力加速度センサを有しており、前後方向が定められており、基準位置からの前後方向への相対的な移動距離を表す信号を前記出力手段に出力するものであり、前記出力手段は、入力された信号の値が、前方へ進んだことを表す場合、出力部に出力する画像を、移動距離に応じて定められる率で拡大し、後方へ進んだことを表す場合、出力部に出力する画像を移動距離に応じて定められる率で縮小する、ことを特徴とする
請求項11記載のタンジブルデバイスを備えている生体画像処理システムは、請求項10記載の画像処理システムであって、前記重力加速度センサは、タンジブルデバイスが回転した場合に、回転角度を検出できるものであり、前記出力手段は、回転角度に応じて定められる角度だけ、出力部に出力する画像を出力部の中心を基準に時計回り又は反時計回りに回転させる、ことを特徴とする。
請求項12に記載のタンジブルデバイスを備えている生体画像処理システムは、請求項1乃至11の何れか1つに記載の画像処理システムであって、前記対象物が、被験者の身体である、ことを特徴とする。
請求項13記載のタンジブルデバイスを備えている生体画像処理システムは、請求項12記載の画像処理システムであって、前記対象物が、被験者の脳である、ことを特徴とする。
請求項14記載のタンジブルデバイスを備えている生体画像処理システムは、前記出力部が、出力手段からの画像データに基づく画像を表示している場合に、タンジブルデバイスをタッチパッド式のポインティングデバイスとして機能させる機能切り換え手段を更に備えている、ことを特徴とする。
請求項15記載のタンジブルデバイスを備えている生体画像処理システムは、3次元位置センサを先端部に内蔵するタッチペンを備え、前記検出手段は、前記タッチペンの先端を前記タンジブルデバイスの表面に向けて指し示した状態で、前記3次元位置センサから発生する信号を受けると、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を前記画像処理部へ出力するレシーバである、ことを特徴とする。
請求項16記載のタンジブルデバイスを備えている生体画像処理システムは、前記3次元位置センサは、3軸方向の磁界を発生させる3軸地磁気センサであり、前記レシーバは、前記3軸地磁気センサから発生する磁界を受けるものである、ことを特徴とする。
請求項17記載のタンジブルデバイスを備えている生体画像処理システムでは、前記タッチペンは、前後方向にスライド可能なズームイン・アウトボタンが設けられており、前記ズームイン・アウトボタンを前後方向にスライドさせることにより、前記3軸地磁気センサから発生する磁界を変化させるものであり、前記レシーバは、前記磁界の変化に応じた信号を前記画像処理部に出力するものであり、前記出力手段は、前記磁界の変化に応じて、出力部に出力する画像を縮小又は拡大する、ことを特徴とする。
請求項18記載のタンジブルデバイスを備えている生体画像処理システムでは、タンジブルデバイスと、データベースと、画像処理部と、出力部と、を備えている、タンジブルデバイスを備えている生体画像処理システムであって、前記タンジブルデバイスは、3次元位置センサを先端部に内蔵するタッチペンと、前記タッチペンの先端を人の身体に向けて指し示した状態で、前記3次元位置センサから発生する信号を受けると、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を前記画像処理部へ出力するレシーバと、を有し、前記データベースは、人の身体の3次元画像データを記録しているものであり、前記画像処理部は、コンピュータ読み取り可能なプログラムを実行することによって、タッチ位置特定手段と、出力手段と、を実現するものであり、前記タッチ位置特定手段は、前記レシーバからの信号に基づいてタッチ位置を特定するものであり、前記出力手段は、前記タッチ位置特定手段によって特定されたタッチ位置に対応する人の身体の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを、データベースに記録している3次元画像データに基づいて形成し、前記出力部に出力するものであり、前記出力部は、前記出力手段からの画像データに基づく画像を表示する、ことを特徴とする。
請求項19記載のタンジブルデバイスを備えている生体画像処理システムでは、前記レシーバは、椅子のヘッドレストまたは座部または背部に埋め込まれる、ことを特徴とする。
請求項20記載のタンジブルデバイスを備えている生体画像処理システムでは、前記3次元位置センサは、3軸方向の磁界を発生させる3軸地磁気センサであり、前記レシーバは、前記3軸地磁気センサから発生する磁界を受けるものである、ことを特徴とする。
請求項21記載のタンジブルデバイスを備えている生体画像処理システムでは、前記タッチペンは、前後方向にスライド可能なズームイン・アウトボタンが設けられており、前記ズームイン・アウトボタンを前後方向にスライドさせることにより、前記3軸地磁気センサから発生する磁界を変化させるものであり、前記レシーバは、前記磁界の変化に応じた信号を前記画像処理部に出力するものであり、前記出力手段は、前記磁界の変化に応じて、出力部に出力する画像を縮小又は拡大する、ことを特徴とする。
請求項1記載のタンジブルデバイスを備えている生体画像処理システムは、マン・マシン・インターフェースとして、個体によって寸法にばらつきのある、特定の種類の生体の1つの形状を模したタンジブルデバイスを用いる。形状を模したものの各個体が均一寸法の場合と異なり、生体の3次元画像は、個体によって寸法のばらつきがある。前記画像処理システムでは、位置整合手段を備えたことによって、タンジブルデバイスのタッチ位置と、出力部に出力する画像の位置とを整合することができる。これによって、操作者が表示させようとした部位と実際に出力部に表示される部位との間の差を解消することができる。
請求項2記載のタンジブルデバイスを備えている生体画像処理システムでは、タッチ位置特定手段が、タッチしている時間に基づいて、操作者がタンジブルデバイスを手にしているのか、又は、ある部分をタッチしたのかを判断することができる。故に、操作者は、タンジブルデバイスを、例えば、机上に設置させたままの状態でなく、手にとって、例えば被験者に説明しながら用いることが、可能になる。
請求項3記載のタンジブルデバイスを備えている生体画像処理システムでは、タッチ位置特定手段が、一度タッチした後に、再タッチの持続時間に応じて、生体の、出力部に表示させようとする部分の深度を定めることができる。故に、操作者は、他の機器を用いずとも、タンジブルデバイスのみによって、その表面からある深さの位置を特定し、対応する画像を、出力部に表示させることができる。
請求項4記載のタンジブルデバイスを備えている生体画像処理システムでは、タッチ位置特定手段が、一度タッチした後に、その位置を再タッチした回数に応じて、生体の、出力部に表示させようとする部分の深度を定めることができる。故に、操作者は、他の機器を用いずとも、タンジブルデバイスのみによって、その表面からある深さの位置を特定し、対応する画像を、出力部に表示させることができる。
請求項5記載のタンジブルデバイスを備えている生体画像処理システムでは、タッチ位置特定手段が、ある圧力以上の力でタッチした場合に、その圧力に応じて、生体の、出力部に表示させようとする部分の深度を定めることができる。故に、操作者は、他の機器を用いずとも、タンジブルデバイスのみによって、その表面からある深さの位置を特定し、対応する画像を、出力部に表示させることができる。
請求項6記載のタンジブルデバイスを備えている生体画像処理システムでは、出力手段が、更に、前記検出手段によって検出されたタッチ位置に関係付けられている解剖学情報及び/又は辞書情報を、データベースから検索して出力部に出力して、付加情報を表示させることができる。
請求項7記載のタンジブルデバイスを備えている生体画像処理システムでは、出力手段が、更に、前記検出手段によって検出されたタッチ位置に関連する検索キーワードのインターネット上での検索結果を出力部に出力して、付加情報を表示させることができる。
請求項8記載のタンジブルデバイスを備えている生体画像処理システムでは、確認手段を用いることによって、タッチ位置を視覚確認することができる。
請求項9記載のタンジブルデバイスを備えている生体画像処理システムでは、タンジブルデバイスが、対象物の内部をタッチできるように展開するため、より一層所望の位置の画像を表示しやすくなる、という効果がある。
請求項10記載のタンジブルデバイスを備えている生体画像処理システムでは、タンジブルデバイスを前後に移動させるだけで、表示画像の拡大、縮小を行なうことができる。
請求項11記載のタンジブルデバイスを備えている生体画像処理システムでは、タンジブルデバイスを回転させるだけで、表示画像の回転を行なうことができる。
請求項12記載のタンジブルデバイスを備えている生体画像処理システムでは、タンジブルデバイスが被験者の身体であり、請求項13記載の画像処理システムでは、タンジブルデバイスが被験者の脳である。このように、個人によって寸法の違いのあるものであっても、操作者は、表示させようとした部位と実際に出力部に表示される部位との間の差の無い、画像出力を得ることができる。
請求項14記載のタンジブルデバイスを備えている生体画像処理システムでは、出力部が、出力手段からの画像データに基づく画像を表示している場合、ポインティングデバイスとして機能させることができる。
請求項15記載のタンジブルデバイスを備えている生体画像処理システムでは、3次元位置センサを先端部に内蔵するタッチペンを備え、前記検出手段は、前記タッチペンの先端を前記タンジブルデバイスの表面に向けて指し示した状態で、前記3次元位置センサから発生する信号を受けると、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を前記画像処理部へ出力するレシーバを設けたので、タッチペンの先端でタンジブルデバイスの表面を指し示すことにより、手の指でタンジブルデバイスをタッチする場合よりも狭い範囲で、タンジブルデバイスの表面の指し示した位置の検出が可能となる。このため、タンジブルデバイスの表面の指し示した位置に対応する画像をより正確に出力部に表示させることができる。また、レシーバは、タンジブルデバイスに1つ備えるだけで足りるので、前記検出手段としてタッチセンサを使用する場合と比べて、生体画像処理システムの製造が容易になる。
請求項16記載のタンジブルデバイスを備えている生体画像処理システムでは、前記3次元位置センサは、3軸方向の磁界を発生させる3軸地磁気センサであり、前記レシーバは、前記3軸地磁気センサから発生する磁界を受けるものを用いることにより、タンジブルデバイスの表面の指し示した位置に対応する画像を出力部に表示させることができる。
請求項17記載のタンジブルデバイスを備えている生体画像処理システムでは、タッチペンのズームイン・アウトボタンを前後にスライドさせるだけで、表示画像の拡大、縮小を行なうことができる。
請求項18記載のタンジブルデバイスを備えている生体画像処理システムでは、上記構成を備えることにより、タッチペンの先端を人の身体に向けて指し示すと、その指し示した位置に対応する画像を出力部に表示させることができる。
請求項19記載のタンジブルデバイスを備えている生体画像処理システムでは、前記レシーバは、椅子のヘッドレストまたは座部または背部に埋め込まれることにより、前記椅子に座った状態で、タッチペンの先端を人の身体に向けて指し示すと、その指し示した位置に対応する画像を出力部に表示させることができる。
請求項20記載のタンジブルデバイスを備えている生体画像処理システムでは、前記3次元位置センサは、3軸方向の磁界を発生させる3軸地磁気センサであり、前記レシーバは、前記3軸地磁気センサから発生する磁界を受けるものを用いることにより、タンジブルデバイスの表面の指し示した位置に対応する画像を出力部に表示させることができる。
請求項21記載のタンジブルデバイスを備えている生体画像処理システムでは、タッチペンのズームイン・アウトボタンを前後にスライドさせるだけで、表示画像の拡大、縮小を行なうことができる。
実施例に係る生体画像処理システムの全体を示す図である。 実施例に係る生体画像処理システムの構成を示す図である。 タンジブルデバイスの構成を示す斜視図である。 メインルーチンのフローチャートである。 位置整合処理のフローチャートである。 位置整合処理の説明を行なう図である。 付加情報追加処理のフローチャートである。 タンジブルデバイスのタッチ位置検出を説明するための図である。 付加情報表示処理の実施例を示す図である。 3次元データ上の位置特定処理のフローチャートである。 タンジブルデバイスのタッチ位置と、深度切り換え処理の一実施例の説明用の図である。 3次元データ上の位置特定処理の変形例のフローチャートである。 3次元データ上の位置特定処理の変形例のフローチャートである。 その他の表示制御処理のフローチャートである。 その他の表示制御処理の実施例を説明するための図である。 タンジブルデバイスの変形例の構成を示す図である。 タッチペンを示す図である。 変形例に係る生体画像処理システムの全体を示す図である。
図1は、実施例に係る生体画像処理システムの全体を示す図である。画像処理システム1は、タンジブルデバイスD1と、画像処理装置200と、画像読み取り装置300と、を備えている。該画像処理システムD1は、タンジブルデバイスをタッチすることで、画像処理装置200の出力部に被験者の身体部位の位置を、タッチ位置とのずれの無い状態で、表示することができる。このため、画面表示している被験者の部位の位置をタンジブルデバイスの位置を示しながら、分かりやすく正確に説明することができる。
タンジブルデバイスD1は、個体によって寸法にばらつきのある、特定の種類の生体の1つの形状の全部又は一部を模したものを、拡大、等倍、又は、縮小した大きさのものであり、例えば、全身の人型タンジブルデバイス1000及び/又は人の脳のタンジブルデバイス100がある。以下、脳のタンジブルデバイス100を例にとって、詳しく説明する。タンジブルデバイス100は、表面のタッチ位置を検出し、タッチ位置を表す信号を出力する検出手段を有している。デバイス100の構成については、後に詳しく説明する。
画像処理装置200は、インターネット網400に接続されている。画像処理装置200の構成は、後に詳しく説明する。
画像読み取り装置300は、被験者の身体内部をスキャンして、その3次元画像データを読み取る、CT,MRI等の周知の装置である。
図2は、実施例に係る画像処理システム1の構成を示す図である。タンジブルデバイス100は、表面に光透過型のタッチ式のセンサ150と、センサ150の直下の位置に多数のLED160と、内部に相対的な移動量を検知するための重力加速度センサ170と、を備えている。画像処理装置200は、画像処理部201と、出力部(ディスプレイ)206と、データベース(HDD)250と、を備えている。画像読取装置300の読み取り画像データは、画像処理装置200へと入力され、CPU202によって、データベース250に記録される。データベース250は、解剖学情報及び/又は辞書情報を、記録している。
画像処理部201は、中央演算処理装置(以下、CPU)202と、ROM203と、RAM204と、入力部205と、を備えている。ROM203は、システムのOSのプログラムと、本発明に係る画像処理プログラムと、を記録している。RAM204は、プログラム又はデータ処理用の作業領域として用いられる。CPU202は、ROM203からプログラムをRAM204へと読み出し、展開し、実行する。画像処理の内容は、後にフローチャートを用いて詳しく説明する。入力部205は、キーボード、マウスで構成されており、例えば、後述する位置整合処理(図4、図5に記載のステップS2)実行時に必要な数値データ等の入力を行なうのに用いる。
図3は、タンジブルデバイス100の構成を示す斜視図である。図3(a)に示すように、タンジブルデバイス100は、人の脳を模したものである。タンジブルデバイス100は、脳の内部に直接タッチできるように、例えば、図3(b)に示すように、台105上に設けた脳の半分100aを水平面に平行な複数の平面で部分102、103、104へと分割し、各分割した部分102、103、104が、図面手前にいる操作者側に展開するようになっている。図3(c)は、部分102、103、104を全て手前に引き出した状態を示している。
なお、前記展開は、一例であり、異なる方向、例えば、垂直方向に展開する構成を採用することもできる。さらに、例えば、全身のタンジブルデバイス1000を用いる場合等、種々の方向に展開する構成を採用することも考えられる。また、何ら展開せず、1つの塊とする構成も、考えられる(後述する図16を参照)。また、手にとって操作しやすいように、脳の残り半分100bに必要なセンサ(例えば、重力加速度センサ170)を収め、台105から着脱可能に構成しても良い。さらに好ましくは、デバイス100の脳の部分の大きさは、手にとって操作しやすい大きさ、例えば、直径約11〜14cmである。
各部分102、103、104の上面(図中斜線を付して示す領域)102a、103a、104aには、操作者によるタッチ位置を検出し、検出した位置を表す信号をCPU202へと出力する検出手段を備えている。検出手段は、周知の、いわゆるタッチセンサが用いられる。なお、変形例として、タッチの有無だけでなく、その強さ(押圧力)を検知し、出力する感圧式のものを用いるものについて、後に説明する。
図4は、メインルーチンのフローチャートである。CPU202は、ROM203から画像処理プログラムを読み出して実行することによって、位置整合手段(ステップS2)と、タッチ位置特定手段(ステップS4、S5)と、出力手段(ステップS8、S9)と、を実現する。なお、ステップS1乃至S3は、動作初期にのみ実行される、いわゆる初期設定である。
画像読取装置300を動かし、被験者の全身、又は、限られた範囲の3次元画像データの読み取りを行い、読み取った画像データをハードディスク250に記録する(ステップS1)。タンジブルデバイス100の位置と、読み取った被験者との位置とを整合させる処理を行なう(ステップS2)。該処理は、前記位置整合手段に相当し、タンジブルデバイス100の2以上の基準位置と、3次元画像データの対応する2以上の基準位置と、を整合させることによって、前記検出手段によって検出されたタッチ位置と3次元画像データの位置とを一対一に対応付けるものである。本処理は、後に図5を参照しつつ詳しく説明する。
付加情報追加処理(ステップS3)を行なう。該処理は、タンジブルデバイスのタッチ可能な位置を、複数の領域に分け、その領域の全部または一部の領域に、タッチされた場合に、画面に表示する辞書情報と、インターネットで検索する検索キーワードと、を対応付ける処理である。本処理は、後に図7を参照しつつ詳しく説明する。
タッチ位置特定処理を行なう(ステップS4とステップS5)。該処理は、前記タッチ位置特定手段に相当し、デバイス100表面に備えられている前記検出手段からタッチされたことを示す信号を受けるのを待機する(ステップS4でNo)。前記信号を受けたとき(ステップS4でYes)、デバイス100のタッチ位置に対応する、3次元画像データ上での位置を特定する処理を行なう(ステップS5)。本処理は、後に図10を参照しつつ詳しく説明する。
出力情報の特定(ステップS6)、検索キーワードによる検索(ステップS7)、画像出力(ステップS8)、その他の表示制御処理(ステップS9)を行なう。これらの処理は、前記出力手段に相当し、前記ステップS2の処理によって整合された、タンジブルデバイス100と3次元画像データとの位置対応情報に基づいて、前記タッチ位置特定処理によって特定されたタッチ位置に対応する対象物の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを、データベース250に記録している3次元画像データに基づいて形成し、更に、追加の付加情報画像と共に、出力部206に出力する処理である。
前記ステップS6では、タッチ位置の表面が特定された場合、ステップS2で設定された2次元画像を出力画像に特定し、タッチ位置の表面からの特定深度が設定された場合、3次元画像データから対応する特定深度の位置の2次元画像を形成し、これを出力画像に特定する。なお、周知のように、タッチ位置と3次元画像データとに基づいて、タッチ位置を中心に、ある角度から見た特定深度の3次元画像を、2次元画像と共に、又は、2次元画像の代わりに、出力するように特定しても良い。
処理終了コマンドの入力を受けていない場合(ステップS10でNo)、ステップS4に戻り、ステップS4乃至S9の処理を繰り返し実行する。例えば、入力部205から処理終了コマンドの入力を受けた場合(ステップS10でYes)、処理を終了する。
図5は、位置整合処理(図4のステップS2)のフローチャートである。図6は、本処理の説明のための図である。図6(a)は、デバイス100で想定される、頭頂部の位置A0と、あごの位置B0と頭部の前後幅C0が、それぞれどの位置又は範囲を示すのかを図解している。図6(b)は、被験者の頭頂部の位置A1と、あごの位置B1と頭部の前後幅C1が、それぞれどの位置又は範囲を示すのかを図解している。
入力部205から図6(b)に示すA1、B1、C1についてデータ入力されるのを待機する(ステップS21でNo)。入力があった場合、頭頂部A1の位置を定め(ステップS22)、あごの位置B1を定め(ステップS23)、その他の基準点として、例えば、C1の入力があった場合には(ステップS24でYes)、その他の基準点、例えば頭部の前後幅C1の設定(ステップS25)を行なう。例えば、予め定めた時間内に前記C1の入力が無い場合には(ステップS24でNo)、ステップS25をスキップする。
前記入力値に基づいて、タンジブルデバイス100と、3次元画像データの対応する箇所の画像データとを、一対一に対応させる整合処理(ステップS26)を実行する。3次元画像データのサイズを拡大又は縮小して、正規化処理を実行する。タンジブルデバイス100のタッチ可能な領域を多数のマトリクスに分割し、同様に、3次元画像データの対応する領域を同数の多数のマトリクスに分割し、それぞれを一対一に対応付ける処理(いわゆるマッピング処理)を行なう。前記一対一に対応付ける処理は、例えば、あるタッチ位置に対し、対応する3次元画像データの1の位置を、表を参照しつつ特定する、いわゆるルックアップテーブル方式により行なう。該処理を行なうことによって、大きさの固定されているタンジブルデバイス100と、大人、子供、老若男女等によって生じる個体差のある3次元画像データとを整合させる。更に、各マトリクスに対応する対象物の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを特定する。図4に示すメインルーチンにリターンする。
前記位置整合処理を行なうことによってタンジブルデバイス100のタッチ位置と、出力部206に出力する画像の位置とを整合することができる。これによって、操作者が表示させようとしたタッチ位置と実際に出力部206に表示される部位との間の差を解消することができる。
図7は、付加情報追加処理(図4のステップS3)のフローチャートである。前記図5のステップS26の説明で用いた複数のマトリクスと同じもの、又は、これらのマトリクスを均一に又は部分毎に定めた数集めて構成されるブロックとして、タッチ部分又は領域の設定を行なう(ステップS31)。設定したタッチ部分又は領域に対応する、データベース250に予め記録している表示内容の設定を行なう(ステップS32)。該処理は、入力部205と出力部206とを用いて、全てのタッチ部分又は領域について行なう。入力部205の入力を受け付けて(ステップS33でYes)、インターネットを用いて検索するキーワードの設定を行なう(ステップS34)。該処理は、入力部205と出力部206とを用いて、全てのタッチ部分又は領域について行なう。検索を行なう際に用いる検索エンジンの設定を行なう(ステップS35)。該検索エンジンは、一般に使用可能検索エンジンの他、臨床治験のデータ等の専用のデータベースを検索するものを含む。各設定内容をデータベース250に記録させる(ステップS36)。図4に示すメインルーチンにリターンする。
図8は、タンジブルデバイスのタッチ位置検出を説明するための図である。図8(a)は、タンジブルデバイス100を実際にタッチしている状態を示している。図8(b)は
前記図5のステップS26の説明で用いた複数のマトリクスP104−1乃至P104−n(但し、nは0〜nmaxの整数)、を可視化して表す図である。マトリクスの1つが、1つのタッチ位置を表す。図8(a)に示す位置は、P104−24である。図8(c)は、図7のステップS32乃至S35でタッチ位置P104−24に対応付けた、付加情報等を示す図である。該タッチ位置P104−24には、位置情報として、前頂葉の説明文書と、検索キーワード「前頂葉」と、使用する検索エンジンの情報「・・・検索サイト(http://www…)」が対応付けられている。
図9は、付加情報表示処理の実施例を示す図である。図9(a)は、例えば、図5のステップS26でタッチ位置P104−24に対応付けた画像データI104−24と、図7のステップS36でデータベース250に記録された付加情報と、を示す。図9(b)は、タッチ位置P104−24がタッチされたときに、出力部206に表示する画面の例を示している。
図10は、3次元画像データ上の位置特定処理(図4のステップS5)のフローチャートである。タンジブルデバイス100を最初にタッチしてから、5秒以内に同じ位置が再タッチされた場合(ステップS51でYes)、この再タッチの時間を測定する(ステップS52)。前記5秒は、誤検出防止等の実施の実情に応じて、予め定められる値であり、種々の値(例えば、4秒又は6秒等)をとり得る。以下の変形例(図12のステップS54)においても同じである。測定したタッチ時間に基づいて、対応する深度を決定する(ステップS53)。図4のメインルーチンへリターンする。5秒以内に再タッチが無かった場合(ステップS52でNo)、図4のメインルーチンのステップS4に戻り、再び、タッチ検出を行なう。該処理によって、タンジブルデバイス100を手にとって操作している場合でもタッチ位置を正確に検出することができる。また、タッチした位置からの深度を設定することができる。故に、操作者は、タンジブルデバイス100を、例えば、机上に設置させたままの状態でなく、手にとって、例えば被験者に説明しながら用いることが、可能になる。また、操作者は、他の機器を用いずとも、タンジブルデバイス100のみによって、その表面からある深さの位置を特定し、対応する画像を、出力部206に表示させることができる。
図11は、タンジブルデバイスのタッチ位置と、深度切り換え処理によって特定される深度の一実施例の説明用の図である。図11(a)に示すように、部分104のある位置が再タッチ(即ち2度タッチ)された場合、図11(b)に示すように、再タッチしていた時間が0秒乃至2秒の場合、第1層(表層)T0の画像を出力する。該画像は、タッチ位置に対応させてハードディスクに記録してある画像である。再タッチしていた時間が2秒から4秒の場合、第2層T1の画像を出力する。以下同様に、再タッチしていた時間が4秒から6秒の場合には、第3層T2を、6秒より長い場合には第4層T3の画像を出力する。
図12は、3次元画像データ上の位置特定処理(図4のステップS5)の変形例のフローチャートである。タンジブルデバイス100を最初にタッチしてから、5秒以内に同じ位置が再タッチされた場合(ステップS54でYes)、再タッチされた累計回数を1つカウントアップする(ステップS55)。5秒以上タッチされない場合には(ステップS54でNo)、再タッチ回数合計(累計値)から対応深度を決定する。例えば、図11(b)で示した例を用いれば、再タッチの回数が1回、即ち、同じ位置を2回タッチした場合、第1層(表層)T0の画像を出力する。同様に、再タッチの回数が2回の場合、第2層T1の画像を、3回の場合、第3層T2の画像を、4回以上の場合、第4層T3の画像を出力する。該構成を採用することによって、操作者は、他の機器を用いずとも、タンジブルデバイス100のみによって、その表面からある深さの位置を特定し、対応する画像を、出力部に表示させることができる。
図13は、3次元画像データ上の位置特定処理(図4のステップS5)の変形例のフローチャートである。本例では、タンジブルデバイス100は、表面に備える検出手段の変形例として、タッチの有無だけでなく、その強さ(押圧力)を検知し、出力する感圧式のものを用いることが必須になる。該構成において、押圧が、P0〜P1の範囲の場合(ステップS57でYes)、深度をT0に設定する(ステップS58)。同様に、押圧が、P1〜P2の範囲の場合(ステップS59でYes)、深度をT1に設定する(ステップS60)。押圧が、P2〜P3の範囲の場合(ステップS61でYes)、深度をT2に設定する(ステップS62)。押圧がP3より強く押されている場合(ステップS61でNo)、深度をT3に設定する(ステップS63)。該構成を採用することによって、操作者は、他の機器を用いずとも、タンジブルデバイス100のみによって、その表面からある深さの位置を特定し、対応する画像を、出力部に表示させることができる。
図14は、その他の表示制御処理(図4のステップS9)のフローチャートである。出力部206に図9(b)の画像出力をした後、タンジブルデバイス100の表面がダブルクリックされた場合(ステップS90でYes)、タンジブルデバイス100をタッチパッド式のポインティングデバイスとして機能させる(ステップS91)。前記ダブルクリックとは、例えば、0.5秒間の間に2度同じ位置がタッチされた場合をいう。なお、図9(b)の画面表示されていない場合には、かかる機能は無効にされており、本ステップS9の処理実行時にのみ有効になる。タッチパッドとして機能する場合、出力部206の画面上に矢印型のポインタを表示し、タッチ位置の移動と共に画面上を移動させる。例えば、図9(b)の(b−1)欄上でワンクリックすると、その詳細な内容を画面表示する。本機能は、もう一度ダブルクリックすることで、解除される。
なお、前記ステップS91では、CPU202は、重力加速度センサ170の出力に基づいて、いわゆるマウスのように、机上又は空中でのタンジブルデバイス100の移動方向、距離に応じて、画面上の矢印型のポインタを移動させる。この機能は、もう一度ダブルクリックすることで、解除される。
タッチパッドとしての機能が解除された場合、又は、予め定めた時間経過等によって前記ダブルクリックが無いと判断される場合(ステップS90でNo)、タッチ位置にあるLED160の点灯を行なう(ステップS92)。タンジブルデバイス100の移動を重力加速度センサ170の出力に基づいて検出する(ステップS93)。タンジブルデバイス100が移動している場合であって(ステップS94でYes)、前方に移動している場合(ステップS95でYes)、出力部206に出力している画像を前方での移動距離に応じて拡大する処理を行なう(ステップS96)。前方以外に移動している場合(ステップS95でNo)、後方へ移動していると判断し(ステップS97)、後方への移動距離に応じて縮小する処理を行なう(ステップS98)。回転していることが検出された場合(ステップS99でYes)、回転軸と回転角度とを検出し(ステップS100)、出力部206に表示のタッチ位置に関する画面中心を軸に、検出した回転角度に応じた角度(センサ精度に依存するところもあるが、好ましくは一対一の対応角度)だけ画像を時計回り又は反時計回りに回転させる(ステップS101)。回転が検出されない場合には(ステップS99でNo)、図4のメインルーチンへリターンする。
前記構成を採用することで、操作者は、タンジブルデバイス100を、タッチパッドとして用いることができる他、前後に移動又は回転させるだけで、表示画像の拡大、縮小又は回転を行なうことができる。
図15は、その他の表示制御処理の実施例を説明するための図である。図15(a)は、例えば、部分104の位置P104−30がタッチされた場合を示す。図15(b)は、部分104の表面に設けられている検出手段である光透過型のセンサ150と、該センサ150の真下に設けられている複数のLED160を示す図である。本図において、タッチ位置P104−30の位置にあるセンサ150を、センサ150104−30と表し、その真下にあるLED160をLED160104−30と表す。センサ150104−30は、光透過性の樹脂に実装されている。該構成を採用したことによって、部分104の位置P104−30がタッチされた場合、LED160104−30が発光し、その光が、部分104の表面に現れ、タッチ位置を視覚確認することができる。
図16は、タンジブルデバイス100の変形例のタンジブルデバイス120の構成を示す図である。タンジブルデバイス120は、前記タンジブルデバイス100と基本構成は同じであるが、人の脳を模し、手のひらサイズにまで縮小した一体のものである。その表面には、操作者によるタッチ位置を検出し、検出した位置を表す信号をCPU202へと出力する検出手段が設けられている。このように、タンジブルデバイスの形状は、使用に際し、種々の大きさのものを用いることができる。また、脳以外に、全身、胴体、四肢等を、手にして扱いやすい大きさにしたものを用いることができる。このような場合であっても、図4のステップS2の位置整合処理を実行することで、タンジブルデバイスのタッチ位置と、出力部に出力する画像の位置とを整合することができる。これによって、操作者が表示させようとした部位と実際に出力部に表示される部位との間の差を解消することができる。
上記タンジブルデバイス100を備えている生体画像処理システム1は、タンジブルデバイス100の表面にタッチセンサ150を設け、そのタンジブルデバイス100の表面を指で直接タッチすることにより、タッチ位置に対応する対象物の画像を出力部206に表示したが、図17に示すタッチペン501の先端501aをタンジブルデバイス100の表面に向けて指し示すことにより、その指し示した位置に対応する対象物の画像を出力部206に表示するようにしてもよい。
この場合、タッチペン501は、3次元位置センサ(図示せず)を先端部502に内蔵するものを用い、前記検出手段としては、タッチペン501の先端501aをタンジブルデバイス100の表面に向けて差し示した状態のときに、前記3次元位置センサから発生する信号を受けて、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を画像処理部201へ出力するレシーバ(図示せず)を用いる。なお、タッチペン501の先端501aをタンジブルデバイス100の表面に向けて指し示すとは、タッチペン501の先端501aでタンジブルデバイス100の表面を直接タッチしない場合と、タッチペン501の先端501aでタンジブルデバイス100の表面を直接タッチした場合の両方が含まれる。
前記3次元位置センサとしては、例えば、3軸地磁気センサや超音波発振機を用いることができる。3軸地磁気センサは、3方向の直交コイルで構成され、3軸方向の磁界を発生させるものである。超音波発振機は、超音波を発生させるものである。
前記3次元位置センサとして前記3軸地磁気センサを用いる場合、レシーバとしては、3方向の直交コイルで構成され、前記3軸地磁気センサの3つのコイルを励磁すると、その3軸地磁気センサから発生する磁界を受けて、3つの前記直交コイルに起電力が発生し、各直交コイルの起電力を測定することにより、3軸地磁気センサの相対的な位置を検出し、前記検出された位置を示す信号を画像処理部201へ出力する手段を備えたものを用いる。
この場合、レシーバは、タンジブルデバイス100の表面に埋め込まれる。前記レシーバのタンジブルデバイス100の表面に埋め込まれる位置は、特に限定されないが、例えば、頭頂部など対象物の中心となる位置に埋め込めば、タンジブルデバイス100の表面の指し示す位置によらず、前記3軸地磁気センサからの磁界をレシーバが受けやすくなるので、タンジブルデバイス100の表面の指し示す位置の情報が得やすくなり好ましい。
前記3次元位置センサとして前記超音波発振機を用いる場合、レシーバは、超音波を受信することができるものを3つ設けておく。そして、各レシーバに超音波が到達するまでの時間を測定して、三角測量の原理により、レシーバに対する超音波発振機の位置を検出し、前記検出された位置を示す信号を画像処理部201へ出力する手段を備えたものを用いる。
タッチペン501には、その表面の先端部寄りの位置に、前後方向にスライド可能なズームイン・アウトボタン503が設けられており、ズームイン・アウトボタン503を前後にスライドさせることにより、前記3軸地磁気センサから発生する磁界を変化させることができるようになっている。また、タッチペン501は、ズームイン・アウトボタン503の移動距離が大きくなるほど、前記3軸地磁気センサから発生する磁界の変化が大きくなるように設定されている。前記磁界の変化を受けたレシーバは、前記磁界の変化に応じた信号を画像処理部201に出力する手段を備えている。画像処理部201は、前記磁界の変化に応じた信号を受け取ると、前記出力手段により、前記磁界の変化に応じて出力部に表示させる画像を縮小・拡大するようになっている。例えば、ズームイン・アウトボタンをタッチペン501の後方にスライドさせた場合は、出力部206に表示する画像を拡大し、タッチペン501の前方にスライドさせた場合は、出力部206に表示する画像を縮小するように設定することができる。
前記位置整合処理は、上記ステップS21〜上記ステップS25まで上記実施形態と同様に行なうことができる。上記ステップS26のマッピング処理では、まず、タンジブルデバイス100のタッチ可能な位置をタッチペン501の先端501aで直接タッチし、レシーバによってタンジブルデバイス100の表面のタッチ位置を検出し、そのタッチ位置の位置情報を得る。この操作を、タンジブルデバイス100のタッチ可能な全領域について行ない、そのタッチ可能な全領域の位置情報を得る。次に、この位置情報と、上記ステップS21〜上記ステップS25で入力された入力値とを一対一に対応させる。この処理は、前記位置整合手段により行なわれる。
前記タッチ位置特定手段は、前記レシーバから出力される、前記3次元位置センサの相対的な位置を示す信号が、前記位置情報と相違する場合(例えば、タッチペン501の先端501aをタンジブルデバイス100の表面に直接タッチさせるのではなく、タッチペン501の先端501aをタンジブルデバイス100の表面に向けて指し示す場合)、前記レシーバから出力される前記信号を前記位置情報に変換する。変換は、例えば、タッチペン501の先端501aが指し示す向きに延びる直線と、タンジブルデバイス100の表面との交点を求めることにより行なうことができる。これにより、タッチペン501の先端501aをタンジブルデバイス100の表面に向けて指し示すと、前記レシーバが前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を画像処理部201へ出力し、前記タッチ位置特定手段により、前記信号を前記位置情報に変換し、その位置情報と前記入力値に基づいて、タンジブルデバイス100の表面のタッチペン501の先端501aで指し示した位置に対応する3次元画像データの位置を特定することができる。
また、上記実施形態では、タンジブルデバイス100の表面をタッチペン501で指し示すことにより、その指し示した位置の画像を出力部206に表示させるようにしたが、図18に示すように、人の身体をタッチペン501で指し示すことにより、その指し示した位置に対応する画像を出力部206に表示させるようにすることもできる。なお、タッチペン501の先端501aをタンジブルデバイス100の表面に向けて指し示すとは、タッチペン501の先端501aでタンジブルデバイス100の表面を直接タッチしない場合と、タッチペン501の先端501aでタンジブルデバイス100の表面を直接タッチする場合の両方が含まれる。
このタンジブルデバイスを備えている生体画像処理システムでは、タンジブルデバイス100は、前記3次元位置センサを先端部に内蔵するタッチペン501と、タッチペン501の先端501aを人の身体に向けて指し示した状態で、前記3次元位置センサから発生する信号を受けると、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を前記画像処理部201へ出力するレシーバとから構成される。
この場合、レシーバは、人に埋め込むことができないので、例えば、椅子504のヘッドレスト504aまたは座部504bまたは背部504cに埋め込むようにする。また、図示はしていないが、椅子504の肘掛や脚置、ベッド(図示せず)のマットなどにレシーバを埋め込んでもよい。ベッドのマットにレシーバを埋め込む場合は、前記ベッドに寝た状態で、タッチペン501の先端501aを人の身体に向けて指し示すと、その指し示した位置に対応する画像を出力部206に表示させることができる。ベッドのマットにレシーバを埋め込む位置は、人がベッドに寝た状態で人の身体に対して中心となる位置、例えば、人の後頭部の中心位置や背中の中心位置と対面する位置に埋め込むと、人の身体の表面の指し示す位置によらず、前記3軸地磁気センサからの磁界をレシーバが受けやすくなるので、人の身体の表面の指し示す位置の情報が得やすくなり好ましい。
また、タッチペン501の先端501aを向けて指し示す対象物が人の身体であるので、画像読取装置300で読み取った3次元画像データと、タッチペン501の先端501aで人の身体を指し示した位置の位置情報とが一対一の対応関係にある。このため、人の身体に対するレシーバの埋め込んだ位置を3次元画像における基準位置として設定しておくだけで、人の身体に向けてタッチペン501の先端501aを指し示したときに、その指し示した位置に対応する画像を出力部206に表示させることができる。具体的には、人の身体に向けてタッチペン501の先端501aを指し示すと、前記タッチ位置特定手段により、前記レシーバから出力される前記信号をタッチペン501の先端501aが指し示す向きに延びる直線と、3次元画像における人の身体の表面との交点の位置情報に変換し、その交点の位置の画像を形成して出力部206に表示させる。このため、人の身体に対するレシーバの埋め込んだ位置を3次元画像における基準位置として設定しておくだけで、タッチペン501の先端501aを人の身体に向けて指し示すと、画像処理部201は、レシーバによって検出された3次元位置センサの位置情報に基づいて、3次元画像データにおける人の身体のタッチペン501の先端501aが指し示した位置に対応する画像を出力部206に表示させることができるので、上記ステップS21〜ステップS26の位置整合処理を省略することができる。
本発明の画像処理システムは、主に、人の診断用に用いられるが、個体によって寸法にばらつきのある、特定の種類の生体、例えば、他の哺乳類等、の治療診断、大学での授業、研究(医学教育・科学教育、家庭内での医学辞典や手引き)等に応用することができる。
1 画像処理システム
100 タンジブルデバイス
150 タッチセンサ
160 LED
170 重力加速度センサ
200 画像処理装置
201 画像処理部
202 中央演算処理装置(CPU)
203 ROM
204 RAM
205 入力部
206 出力部
300 画像読取装置
501 タッチペン
501a 先端部
504 椅子
504a ヘッドレスト
504b 座部
504c 背部

Claims (21)

  1. タンジブルデバイスと、データベースと、画像処理部と、出力部と、を備えている、タンジブルデバイスを備えている生体画像処理システムであって、
    前記タンジブルデバイスが、個体によって寸法にばらつきのある、特定の種類の生体の1つの形状の全部又は一部を模したものを、拡大、等倍、又は、縮小した大きさのものであり、表面のタッチ位置を検出し、タッチ位置を表す信号を出力する検出手段を有しており、
    前記データベースが、対象物の3次元画像データを記録しているものであり、
    前記画像処理部が、コンピュータ読み取り可能なプログラムを実行することによって、位置整合手段と、タッチ位置特定手段と、出力手段と、を実現するものであり、
    前記位置整合手段が、タンジブルデバイスの2以上の基準位置と、3次元画像データの対応する2以上の基準位置と、を整合させることによって、前記検出手段によって検出されたタッチ位置と3次元画像データの位置とを一対一に対応付けるものであり、
    前記タッチ位置特定手段が、前記検出手段からの信号に基づいてタッチ位置を特定するものであり、
    前記出力手段が、位置整合手段によって整合された、タンジブルデバイスと3次元画像データとの位置対応情報に基づいて、前記タッチ位置特定手段によって特定されたタッチ位置に対応する対象物の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを、データベースに記録している3次元画像データに基づいて形成し、出力部に出力するものであり、
    前記出力部が、出力手段からの画像データに基づく画像を表示する、
    ことを特徴とする、タンジブルデバイスを備えている生体画像処理システム。
  2. 前記検出手段が、タッチしている、又は、していない、を検出するタッチセンサであり、
    前記タッチ位置特定手段が、前記センサをタッチしている時間に基づいて、タッチしたのか、又は、タンジブルデバイスを保持するために継続して触っている状態であるのか、の判断を行ない、タッチ位置を特定する、
    ことを特徴とする請求項1記載の、タンジブルデバイスを備えている生体画像処理システム。
  3. 前記タッチ位置特定手段が、タッチセンサがタッチされたことを検出し、更に、定めた時間内に、該タッチ位置が再タッチされたことを検出した場合、該再タッチの継続時間に応じて定まる、表面から予め定めた深度までの何れかの位置を特定する、
    ことを特徴とする請求項2記載の、タンジブルデバイスを備えている生体画像処理システム。
  4. 前記タッチ位置特定手段が、タッチセンサがタッチされたことを検出し、更に、定めた時間間隔内に、該タッチ位置が1回以上タッチされた場合、再タッチされた回数を検出し、該再タッチの回数に応じて定まる表面から予め定めた深度までの何れかの位置を特定する、
    ことを特徴とする請求項2記載の、タンジブルデバイスを備えている生体画像処理システム。
  5. 前記検出手段が、タッチしている部分の情報と、タッチしている部分を押す圧力値の情報と、を検出する感圧センサであり、
    前記タッチ位置特定手段が、ある圧力値以上の力でタッチされた場合に、タッチされたと判断し、そのときの圧力値に応じて定まる、表面から予め定めた深度までの何れかの位置を特定する、
    ことを特徴とする請求項2記載の、タンジブルデバイスを備えている生体画像処理システム。
  6. 前記データベースが、解剖学情報及び/又は辞書情報を、更に記録しており、
    前記出力手段が、更に、前記検出手段によって検出されたタッチ位置に関係付けられている解剖学情報及び/又は辞書情報を、データベースから検索して出力部に出力する、
    ことを特徴とする請求項1乃至5の何れか1つに記載の、タンジブルデバイスを備えている生体画像処理システム。
  7. 前記データベースが、前記検出手段によって検出されたタッチ位置に関連する検索キーワードと、インターネット上にある検索エンジンの情報と、を更に記録しており、
    前記画像処理部が、前記検出手段によって検出されたタッチ位置に関連する検索キーワードの前記検索エンジンによる検索を行なう検索手段を、実現するものであり、
    前記出力手段が、検索結果を出力部に、更に出力する、
    ことを特徴とする請求項1乃至6の何れか1つに記載の、タンジブルデバイスを備えている生体画像処理システム。
  8. 前記タンジブルデバイスは、前記検出手段によって検出されたタッチ位置を視覚的に知らせる複数の確認手段を備えており、
    前記画像処理部の出力手段が、前記タッチ位置特定手段によって特定されたタッチ位置にある確認手段を動作させる、
    ことを特徴とする請求項1乃至7の何れか1つに記載の、タンジブルデバイスを備えている生体画像処理システム。
  9. 前記タンジブルデバイスは、対象物の内部をタッチできるように、展開するようになっており、各展開した面にタッチ位置検出手段を備えていることを特徴とする請求項1乃至8の何れか1つに記載の画像処理システム。
  10. 前記タンジブルデバイスは、重力加速度センサを有しており、前後方向が定められており、基準位置からの前後方向への相対的な移動距離を表す信号を前記出力手段に出力するものであり、
    前記出力手段は、入力された信号の値が、前方へ進んだことを表す場合、出力部に出力する画像を、移動距離に応じて定められる率で拡大し、後方へ進んだことを表す場合、出力部に出力する画像を移動距離に応じて定められる率で縮小する、
    ことを特徴とする請求項1乃至9の何れか1つに記載の、タンジブルデバイスを備えている生体画像処理システム。
  11. 前記重力加速度センサは、タンジブルデバイスが回転した場合に、回転角度を検出できるものであり、
    前記出力手段は、回転角度に応じて定められる角度だけ、出力部に出力する画像を出力部の中心を基準に時計回り又は反時計回りに回転させる、
    ことを特徴とする請求項10記載の、タンジブルデバイスを備えている生体画像処理システム。
  12. 前記対象物が、被験者の身体である、
    ことを特徴とする請求項1乃至11の何れか1つに記載の、タンジブルデバイスを備えている生体画像処理システム。
  13. 前記対象物が、被験者の脳である、
    ことを特徴とする請求項12記載の、タンジブルデバイスを備えている生体画像処理システム。
  14. 前記出力部が、出力手段からの画像データに基づく画像を表示している場合に、タンジブルデバイスをタッチパッド式のポインティングデバイスとして機能させる機能切り換え手段を更に備えている、
    ことを特徴とする請求項1乃至13の何れか1つに記載の、タンジブルデバイスを備えている生体画像処理システム。
  15. 3次元位置センサを先端部に内蔵するタッチペンを備え、
    前記検出手段は、前記タッチペンの先端を前記タンジブルデバイスの表面に向けて指し示した状態で、前記3次元位置センサから発生する信号を受けると、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を前記画像処理部へ出力するレシーバである
    ことを特徴とする請求項1に記載の、タンジブルデバイスを備えている生体画像処理システム。
  16. 前記3次元位置センサは、3軸方向の磁界を発生させる3軸地磁気センサであり、
    前記レシーバは、前記3軸地磁気センサから発生する磁界を受けるものである
    ことを特徴とする請求項15に記載の、タンジブルデバイスを備えている生体画像処理システム。
  17. 前記タッチペンは、前後方向にスライド可能なズームイン・アウトボタンが設けられており、前記ズームイン・アウトボタンを前後方向にスライドさせることにより、前記3軸地磁気センサから発生する磁界を変化させるものであり、
    前記レシーバは、前記磁界の変化に応じた信号を前記画像処理部に出力するものであり、
    前記出力手段は、前記磁界の変化に応じて、出力部に出力する画像を縮小又は拡大する
    ことを特徴とする請求項16に記載の、タンジブルデバイスを備えている生体画像処理システム。
  18. タンジブルデバイスと、データベースと、画像処理部と、出力部と、を備えている、タンジブルデバイスを備えている生体画像処理システムであって、
    前記タンジブルデバイスは、3次元位置センサを先端部に内蔵するタッチペンと、
    前記タッチペンの先端を人の身体に向けて指し示した状態で、前記3次元位置センサから発生する信号を受けると、前記3次元位置センサの相対的な位置を検出し、その位置を示す信号を前記画像処理部へ出力するレシーバと、を有し、
    前記データベースは、人の身体の3次元画像データを記録しているものであり、
    前記画像処理部は、コンピュータ読み取り可能なプログラムを実行することによって、タッチ位置特定手段と、出力手段と、を実現するものであり、
    前記タッチ位置特定手段は、前記レシーバからの信号に基づいてタッチ位置を特定するものであり、
    前記出力手段は、前記タッチ位置特定手段によって特定されたタッチ位置に対応する人の身体の位置の、予め定めた1以上の方向から見た1又は複数の2次元又は3次元画像データを、データベースに記録している3次元画像データに基づいて形成し、前記出力部に出力するものであり、
    前記出力部は、前記出力手段からの画像データに基づく画像を表示する、
    ことを特徴とする、タンジブルデバイスを備えている生体画像処理システム。
  19. 前記レシーバは、椅子のヘッドレストまたは座部または背部に埋め込まれることを特徴とする、請求項18に記載の、タンジブルデバイスを備えている生体画像処理システム。
  20. 前記3次元位置センサは、3軸方向の磁界を発生させる3軸地磁気センサであり、
    前記レシーバは、前記3軸地磁気センサから発生する磁界を受けるものである
    ことを特徴とする請求項19に記載の、タンジブルデバイスを備えている生体画像処理システム。
  21. 前記タッチペンは、前後方向にスライド可能なズームイン・アウトボタンが設けられており、前記ズームイン・アウトボタンを前後方向にスライドさせることにより、前記3軸地磁気センサから発生する磁界を変化させるものであり、
    前記レシーバは、前記磁界の変化に応じた信号を前記画像処理部に出力するものであり、
    前記出力手段は、前記磁界の変化に応じて、出力部に出力する画像を縮小又は拡大する
    ことを特徴とする請求項20に記載の、タンジブルデバイスを備えている生体画像処理システム。
JP2011255456A 2010-12-27 2011-11-22 タンジブルデバイスを備えている生体画像処理システム Pending JP2012148059A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011255456A JP2012148059A (ja) 2010-12-27 2011-11-22 タンジブルデバイスを備えている生体画像処理システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010290759 2010-12-27
JP2010290759 2010-12-27
JP2011255456A JP2012148059A (ja) 2010-12-27 2011-11-22 タンジブルデバイスを備えている生体画像処理システム

Publications (1)

Publication Number Publication Date
JP2012148059A true JP2012148059A (ja) 2012-08-09

Family

ID=46790932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011255456A Pending JP2012148059A (ja) 2010-12-27 2011-11-22 タンジブルデバイスを備えている生体画像処理システム

Country Status (1)

Country Link
JP (1) JP2012148059A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168078A (ja) * 2015-03-11 2016-09-23 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10230016A (ja) * 1996-12-18 1998-09-02 Masahiro Ogami 医療器具の位置検出方法と、それに用いる医療器具セットと、それらに使用する医療器具、医療器具先端位置検出用部材及び医療器具先端位置検出装置
JP2000172421A (ja) * 1998-12-04 2000-06-23 Hitachi Software Eng Co Ltd 電磁誘導方式電子ボード
JP2001184165A (ja) * 1999-12-27 2001-07-06 Toshiba Tec Corp 携帯端末装置
JP2001331245A (ja) * 2000-05-22 2001-11-30 Namco Ltd 立体視映像表示装置、及び情報記憶媒体
JP2003323140A (ja) * 2002-04-26 2003-11-14 Pioneer Electronic Corp 多面体ディスプレイ
JP2004164307A (ja) * 2002-11-13 2004-06-10 Ricoh Co Ltd 表示装置、スクロール情報生成方法およびプログラム
US20060183096A1 (en) * 2002-12-31 2006-08-17 Robert Riener Interactive teaching and learning device with three-dimensional model
JP2010146230A (ja) * 2008-12-18 2010-07-01 Seiko Epson Corp 入力装置およびデータ処理システム
WO2013068860A1 (en) * 2011-11-08 2013-05-16 Koninklijke Philips Electronics N.V. Interacting with a three-dimensional object dataset

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10230016A (ja) * 1996-12-18 1998-09-02 Masahiro Ogami 医療器具の位置検出方法と、それに用いる医療器具セットと、それらに使用する医療器具、医療器具先端位置検出用部材及び医療器具先端位置検出装置
JP2000172421A (ja) * 1998-12-04 2000-06-23 Hitachi Software Eng Co Ltd 電磁誘導方式電子ボード
JP2001184165A (ja) * 1999-12-27 2001-07-06 Toshiba Tec Corp 携帯端末装置
JP2001331245A (ja) * 2000-05-22 2001-11-30 Namco Ltd 立体視映像表示装置、及び情報記憶媒体
JP2003323140A (ja) * 2002-04-26 2003-11-14 Pioneer Electronic Corp 多面体ディスプレイ
JP2004164307A (ja) * 2002-11-13 2004-06-10 Ricoh Co Ltd 表示装置、スクロール情報生成方法およびプログラム
US20060183096A1 (en) * 2002-12-31 2006-08-17 Robert Riener Interactive teaching and learning device with three-dimensional model
JP2010146230A (ja) * 2008-12-18 2010-07-01 Seiko Epson Corp 入力装置およびデータ処理システム
WO2013068860A1 (en) * 2011-11-08 2013-05-16 Koninklijke Philips Electronics N.V. Interacting with a three-dimensional object dataset

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168078A (ja) * 2015-03-11 2016-09-23 国立大学法人名古屋大学 医用観察支援システム及び臓器の3次元模型

Similar Documents

Publication Publication Date Title
Wilson et al. Perception of ultrasonic haptic feedback on the hand: localisation and apparent motion
Pöhlmann et al. Evaluation of Kinect 3D sensor for healthcare imaging
CN103970413B (zh) 触摸屏界面成像系统及方法
EP2817693B1 (en) Gesture recognition device
US9367651B2 (en) 3D wearable glove scanner
JP4356983B2 (ja) 画像処理方法、画像処理装置
CN109952551A (zh) 触敏键盘
JP2006163886A (ja) 情報入力方法及び情報入力装置
CN101426446A (zh) 用于触觉表达的装置和方法
WO2009116597A1 (ja) 姿勢把握装置、姿勢把握プログラム、及び姿勢把握方法
CN103918020A (zh) 与三维对象数据集交互
US20180011538A1 (en) Multimodal haptic effects
KR20150022536A (ko) 의료 진단 장치의 사용자 인터페이스 제공 방법 및 장치
CN108604130A (zh) 信息处理设备、信息处理方法和非暂态计算机可读介质
US20140055448A1 (en) 3D Image Navigation Method
JP7283234B2 (ja) 姿勢特定装置、姿勢特定システム、および姿勢特定方法
JP2023501848A (ja) 超音波診断機器、超音波プローブ、画像の生成方法及び記憶媒体
JP2012148059A (ja) タンジブルデバイスを備えている生体画像処理システム
JP2003175040A (ja) 組織の弾性を触覚的に表現する方法
JPH07281818A (ja) 3次元仮想指示入力システム
US20170095231A1 (en) Portable medical ultrasound scanning system having a virtual user interface
Barone et al. A computer-aided design-based system for posture analyses of motorcycles
KR102291671B1 (ko) 3d 캐드 데이터의 실시간 습득을 위한 3d 펜 및 이의 3d 캐드 데이터 취득 방법
Bordegoni et al. A force and touch sensitive self-deformable haptic strip for exploration and deformation of digital surfaces
JP2013114323A (ja) 3次元空間座標入力装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150617

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150701

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151104