JP2003099808A - Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system - Google Patents

Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system

Info

Publication number
JP2003099808A
JP2003099808A JP2001292376A JP2001292376A JP2003099808A JP 2003099808 A JP2003099808 A JP 2003099808A JP 2001292376 A JP2001292376 A JP 2001292376A JP 2001292376 A JP2001292376 A JP 2001292376A JP 2003099808 A JP2003099808 A JP 2003099808A
Authority
JP
Japan
Prior art keywords
image
input
unit
cross
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001292376A
Other languages
Japanese (ja)
Inventor
Hirosuke Watanabe
浩弐 渡辺
Reiji Matsumoto
礼児 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GTV KK
Original Assignee
GTV KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GTV KK filed Critical GTV KK
Priority to JP2001292376A priority Critical patent/JP2003099808A/en
Publication of JP2003099808A publication Critical patent/JP2003099808A/en
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing technology to achieve collision judgment on a real time basis. SOLUTION: A selection unit 26 selects a cross-sectional image based on a virtual strength inputted by a user. A detection unit 40 detects an object based on the selected cross-sectional image, an object table 56, and position information provided through an input. A response processing unit 42 generates a response to the user based on the detected result. Using the cross-sectional image rather than a three-dimensional image, the processing amount can be substantially reduced, thereby achieving collision judgment of a high-speed object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理を行う技
術に関する。とくに、本発明は、新規な画像処理技術を
実現することができる画像処理装置、バーチャル手術装
置、それらの装置を利用可能なシステム、およびコンピ
ュータに画像処理機能を実現させるためのプログラムに
関する。
TECHNICAL FIELD The present invention relates to a technique for performing image processing. In particular, the present invention relates to an image processing apparatus capable of realizing a novel image processing technique, a virtual surgery apparatus, a system capable of using these apparatuses, and a program for causing a computer to realize an image processing function.

【0002】[0002]

【従来の技術】近年、医学分野において、コンピュータ
を用いた画像処理技術の発展には、非常に目覚しいもの
がある。画像処理技術の中でも、体内組織を観察できる
コンピュータ断層撮影(CT)による画像診断は、現在
の臨床において欠くことのできない存在となっている。
CTスキャナから得られる断面画像データは、人体の内
部情報を2次元の画像として表現できるために、特に内
科や脳神経外科などにおいて非常に有用である。
2. Description of the Related Art In recent years, the development of image processing technology using a computer has been remarkably remarkable in the medical field. Among image processing techniques, image diagnosis by computer tomography (CT) capable of observing internal tissues has become an indispensable part of the current clinical practice.
The cross-sectional image data obtained from the CT scanner is very useful especially in internal medicine and neurosurgery, because the internal information of the human body can be expressed as a two-dimensional image.

【0003】しかしながら、断面画像データは、あくま
でも2次元の情報にすぎないため、体内組織を3次元的
に観察するためには、医師などが、その2次元画像から
3次元の状態を想像する必要がある。この作業は、高度
な知識と経験が要求され、不慣れな人には非常に困難な
ものとなる。この2次元画像データを熟練者以外でも簡
単に扱えるようにするために、連続して撮影されたCT
断面画像を用いて対象組織の立体像を再構成する研究が
現在盛んに行われている。
However, since the cross-sectional image data is merely two-dimensional information, a doctor or the like needs to imagine a three-dimensional state from the two-dimensional image in order to observe the internal tissue three-dimensionally. There is. This task requires a high degree of knowledge and experience and is very difficult for unfamiliar people. In order to make it easy for non-experts to handle this two-dimensional image data, CT images taken in succession
Currently, researches for reconstructing a three-dimensional image of a target tissue using a cross-sectional image are being actively conducted.

【0004】断面画像から3次元の対象を再構成する手
法には様々なものがある。例えば、まず各断面画像で特
定の体内組織を2次元オブジェクトとして抽出し、2次
元オブジェクトを構成するピクセルを、CTスキャンの
スライス間隔分の厚みをもたせた単位格子に拡張して、
3次元オブジェクトを構成する。このようにして構成さ
れた3次元オブジェクトは、教育、遠隔手術、さらには
手術シミュレーションなど、幅広い用途で利用されてい
る。
There are various methods for reconstructing a three-dimensional object from a cross-sectional image. For example, first, a specific body tissue is extracted as a two-dimensional object in each cross-sectional image, and the pixels forming the two-dimensional object are expanded to a unit cell having a thickness corresponding to a slice interval of a CT scan,
Construct a three-dimensional object. The three-dimensional object configured in this manner is used in a wide range of applications such as education, remote surgery, and surgery simulation.

【0005】[0005]

【発明が解決しようとする課題】バーチャルリアリティ
による手術シミュレーションは、ユーザに現実の手術に
近い感覚を体験させ、医学生やインターンなどの技術向
上のために有用な技術である。現在、この手術シミュレ
ーションには前述した3次元オブジェクトが利用されて
いるが、この3次元オブジェクトはデータ量が膨大であ
るため、通常の汎用コンピュータで演算処理するのは困
難である。そのため、大規模なワークステーションなど
の設備が必要となり、どこでも気軽に扱えるシステムで
あるとは言い難い。そのため、容易に仮想手術を体験で
きる手術シミュレーション装置を実現し、普及させるこ
とが、医学の進歩・発展および医療関係者の技術向上と
いう側面からも切望されている。
Surgical simulation by virtual reality is a technique useful for improving the skills of medical students, interns, etc. by allowing the user to experience a feeling similar to that of actual surgery. Currently, the above-described three-dimensional object is used for this surgery simulation, but it is difficult to perform arithmetic processing on a general purpose computer because the three-dimensional object has a huge amount of data. Therefore, large-scale workstations and other equipment are required, and it is hard to say that this system can be handled easily anywhere. Therefore, realization and popularization of a surgery simulation device that allows users to easily experience virtual surgery are highly desired from the standpoints of medical progress and improvement of medical personnel.

【0006】そこで、本発明は、上記の課題を解決する
ことのできる画像処理装置、バーチャル手術装置、それ
らの装置を利用可能なシステム、およびコンピュータに
画像処理機能を実現させるためのプログラムを提供する
ことを目的とする。これらの目的は特許請求の範囲にお
ける独立項に記載の特徴の組合せにより達成される。ま
た従属項は本発明の更なる有利な具体例を規定する。
Therefore, the present invention provides an image processing apparatus, a virtual surgery apparatus, a system in which these apparatuses can be used, and a program for causing a computer to realize an image processing function, which can solve the above problems. The purpose is to These objects are achieved by a combination of features described in independent claims of the invention. The dependent claims define further advantageous specific examples of the present invention.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明の第1の形態に係る画像処理装置は、外観の
画像を画面に表示させる表示処理部と、外観画像から仮
想的な深さ方向に存在する2次元断面画像を格納する第
1格納部と、ユーザによる操作入力を行わしめる入力デ
バイスと、入力デバイスによる入力を受け付ける入力受
付部と、入力に基づいて、断面画像を選択する選択部
と、選択された断面画像に基づいて、入力に対する応答
を生成する応答処理部とを備える。この画像処理装置
は、2次元の断面画像を用いて入力に対する応答を生成
するため、従来の3次元画像を用いた画像処理技術より
も扱うデータ量を少なくでき、高速な演算処理を実現す
ることが可能となる。
In order to achieve the above object, an image processing apparatus according to a first embodiment of the present invention includes a display processing section for displaying an image of an appearance on a screen, and a virtual image from the appearance image. A first storage unit that stores a two-dimensional cross-sectional image existing in the depth direction, an input device that allows a user to input an operation, an input receiving unit that receives an input from the input device, and a cross-sectional image is selected based on the input. And a response processing unit that generates a response to an input based on the selected cross-sectional image. Since this image processing apparatus generates a response to an input by using a two-dimensional cross-sectional image, it can reduce the amount of data to be handled and realize a high-speed arithmetic processing as compared with the conventional image processing technique using a three-dimensional image. Is possible.

【0008】第1格納部は、仮想的な3次元オブジェク
トを所定の方向にスライスした複数の断面画像を格納し
てもよい。所定の方向とは、3次元オブジェクトに対し
て設定される深さ方向に垂直な方向であり、したがっ
て、断面画像は、その深さ方向に複数存在することとな
る。ここで、少なくとも一つの断面画像は、色付けを施
された関心領域を有するのが好ましい。この画像処理装
置は、選択された断面画像において、入力により指定さ
れる位置の色を検出する検出部をさらに備え、応答処理
部は、検出部により検出された色に基づいて、応答を生
成してもよい。また、この画像処理装置は、関心領域の
色と、応答とを対応付けたテーブルをさらに備えて、応
答処理部は、検出された色とテーブルとに基づいて、応
答を生成することとしてもよい。
The first storage section may store a plurality of cross-sectional images obtained by slicing a virtual three-dimensional object in a predetermined direction. The predetermined direction is a direction perpendicular to the depth direction set for the three-dimensional object, and therefore, there are a plurality of cross-sectional images in the depth direction. Here, at least one cross-sectional image preferably has a colored region of interest. The image processing apparatus further includes a detection unit that detects a color at a position designated by input in the selected cross-sectional image, and the response processing unit generates a response based on the color detected by the detection unit. May be. The image processing apparatus may further include a table in which the color of the region of interest and the response are associated with each other, and the response processing unit may generate the response based on the detected color and the table. .

【0009】検出部は、検出した色により、深さ方向に
仮想的に存在しているオブジェクトを検出する。このオ
ブジェクトは、外観画像において可視される状態にあっ
てもよく、また、外観画像に含まれない状態であっても
よい。また、深さ方向とは、例えば外観画像を3次元の
モデルとして立体的に考えた場合に、深さや奥行きとし
てユーザにより感覚的に認識される方向であり、例え
ば、ユーザの入力により外観画像に与えられるべき仮想
的な力の向き、ないしはそれに近似した向きであってよ
い。入力受付部は、入力により与えられる仮想的な力の
大きさを検出し、選択部は、検出された力の大きさに基
づいて、断面画像を選択することができる。また、入力
受付部は、検出した仮想的な力から、外観画像に対する
仮想的な深さ情報を演算し、選択部が、深さ情報に基づ
いて、断面画像を選択してもよい。深さ情報は、基準位
置からの深さ方向における距離データであってよい。断
面画像は、基準面からの距離データを有することが好ま
しい。画像処理装置は、2次元外観画像データを格納す
る第2格納部をさらに備え、表示処理部は、2次元外観
画像データを、外観画像として画面に表示させてもよ
い。外観画像を2次元データから生成することにより、
従来と比較して画像処理装置におけるデータ処理量を大
幅に削減することが可能となる。
The detecting section detects an object virtually existing in the depth direction by the detected color. This object may be visible in the appearance image or may not be included in the appearance image. The depth direction is, for example, a direction that is perceived by the user as depth or depth when the appearance image is three-dimensionally considered as a three-dimensional model. It may be the direction of the virtual force to be given or a direction close to it. The input reception unit detects the magnitude of the virtual force applied by the input, and the selection unit can select the cross-sectional image based on the magnitude of the detected force. The input receiving unit may calculate virtual depth information for the appearance image from the detected virtual force, and the selection unit may select the cross-sectional image based on the depth information. The depth information may be distance data in the depth direction from the reference position. The cross-sectional image preferably has distance data from the reference plane. The image processing apparatus may further include a second storage unit that stores the two-dimensional appearance image data, and the display processing unit may display the two-dimensional appearance image data on the screen as an appearance image. By generating the appearance image from the two-dimensional data,
It is possible to significantly reduce the amount of data processing in the image processing apparatus as compared with the related art.

【0010】第1格納部は、複数の2次元断面画像をM
PEG形式でまとめて格納し、さらに、MPEG画像デ
ータに含まれる時間情報を、仮想的な深さ情報に変換す
る変換関数またはテーブルを格納してもよい。MPEG
形式で格納することにより、断面画像のデータ量を効率
よく圧縮することが可能となり、また時間情報を仮想的
な深さ情報に対応付けることによって、MPEG形式の
データフォーマットを活かしつつ、選択部が、断面画像
を選択できるようにする。
The first storage unit stores a plurality of two-dimensional sectional images in M
A conversion function or table for converting the time information included in the MPEG image data into virtual depth information may be stored together in the PEG format. MPEG
By storing the data in the format, it is possible to efficiently compress the data amount of the cross-sectional image, and by associating the time information with the virtual depth information, the selection unit can utilize the MPEG format data format while Allows selection of cross-sectional images.

【0011】本発明の第2の形態に係るバーチャル手術
装置は、人体の外観画像を画面に表示させる表示処理部
と、少なくとも1つの内部組織を含んだ人体の複数の断
面画像を格納する格納部と、外観画像に対してユーザに
よる操作入力を行わしめる入力デバイスと、入力デバイ
スによる入力を受け付け、その入力により表現される仮
想的な力の大きさまたは向きを検出する入力受付部と、
検出された力の大きさまたは向きに基づいて、断面画像
を選択する選択部と、選択された断面画像に基づいて、
入力に対する応答を生成する応答処理部とを備える。こ
のバーチャル手術装置は、画面に表示される人体の外観
画像に対して、ユーザに仮想的な手術を行わせるもので
ある。2次元の断面画像を用いるため、従来と比べて処
理するデータ量を大幅に削減することができ、ユーザの
仮想手術に対する警告や指示、感想などの応答を高速に
生成することが可能となる。
A virtual surgery apparatus according to a second aspect of the present invention is a display processing unit for displaying an external image of a human body on a screen, and a storage unit for storing a plurality of sectional images of the human body including at least one internal tissue. An input device that allows a user to perform an operation input on the appearance image, an input reception unit that receives an input from the input device, and that detects the magnitude or direction of the virtual force expressed by the input,
Based on the magnitude or direction of the detected force, a selection unit that selects a cross-sectional image, and based on the selected cross-sectional image,
And a response processing unit that generates a response to an input. This virtual surgery device allows a user to perform virtual surgery on an external image of a human body displayed on a screen. Since the two-dimensional cross-sectional image is used, the amount of data to be processed can be significantly reduced as compared with the related art, and it becomes possible to generate a response such as a warning, an instruction, or an impression to the virtual surgery of the user at high speed.

【0012】断面画像は、所定の内部組織に色付けを施
した関心領域を有してもよい。また、このバーチャル手
術装置は、選択された断面画像において、入力により指
定される位置の色を検出する検出部をさらに備え、応答
処理部が、検出部における検出結果に基づいて、応答を
生成することができる。検出部は、検出した色により、
内部組織を検出してもよい。
The cross-sectional image may have a region of interest in which a predetermined internal tissue is colored. The virtual surgery apparatus further includes a detection unit that detects the color of the position designated by the input in the selected cross-sectional image, and the response processing unit generates a response based on the detection result of the detection unit. be able to. The detection unit, depending on the detected color,
Internal tissue may be detected.

【0013】本発明の第3の形態に係るプログラムは、
コンピュータに、外観画像を画面に表示する機能と、入
力デバイスからの入力を受け付ける機能と、入力に基づ
いて、外観画像から仮想的な深さ方向に存在する2次元
断面画像を格納した格納部より断面画像を選択する機能
と、選択された断面画像に基づいて、入力に対する応答
を生成する機能とを実現させる。
A program according to the third aspect of the present invention is
A function of displaying an appearance image on a screen of a computer, a function of receiving an input from an input device, and a storage unit that stores a two-dimensional cross-sectional image existing in a virtual depth direction from the appearance image based on the input. A function of selecting a cross-sectional image and a function of generating a response to an input based on the selected cross-sectional image are realized.

【0014】本発明の第4の形態に係る画像処理システ
ムは、画像配信装置と端末とを備え、画像配信装置は、
外観画像を格納する第1格納部と、外観画像から仮想的
な深さ方向に存在する2次元断面画像を格納する第2格
納部と、外観画像を送信する送信部とを有し、端末は、
外観画像を受信する受信部と、外観画像を表示する表示
装置と、外観画像に対して操作入力を行わしめる入力デ
バイスと、入力デバイスによる入力を受け付ける入力受
付部と、入力に関する情報を送信する送信部とを有し、
さらに画像配信装置は、入力に関する情報に基づいて、
断面画像を選択する選択部と、選択された断面画像を用
いて、入力に対する応答を生成する応答処理部とを有す
る。
An image processing system according to a fourth aspect of the present invention comprises an image distribution device and a terminal, and the image distribution device comprises:
The terminal has a first storage unit that stores an appearance image, a second storage unit that stores a two-dimensional cross-sectional image existing in a virtual depth direction from the appearance image, and a transmission unit that transmits the appearance image. ,
A receiving unit that receives the appearance image, a display device that displays the appearance image, an input device that performs an operation input on the appearance image, an input receiving unit that receives an input from the input device, and a transmission that transmits information related to the input. Part and
Further, the image distribution device, based on the information about the input,
It has a selection part which selects a section image, and a response processing part which generates a response to an input using the selected section image.

【0015】本発明の第5の形態に係る画像処理装置
は、外観の画像を画面に表示させる表示処理部と、各ピ
クセルの明るさ情報が仮想の基準面からの距離に対応付
けて設定されたオブジェクトを含んだ2次元画像を格納
する格納部と、外観画像に対して、ユーザによる操作入
力を行わしめる入力デバイスと、入力デバイスによる入
力を受け付け、その入力により表現される仮想的な力が
加えられる位置を検出し、その力の大きさまたは向きに
対応する仮想的な深さ情報を演算する入力受付部と、2
次元画像において、その位置に対応するピクセルの明る
さ情報と深さ情報とを用いて、2次元画像中のオブジェ
クトと、入力により表現される仮想的な力とのあたり判
定を行う検出部とを備える。ピクセルの明るさ情報を仮
想的な深さ情報に対応付けた2次元画像を利用すること
によって、データ量の少ない2次元画像による3次元的
なあたり判定を実現することが可能となり、また視覚的
に意味のある画像をあたり判定に利用することが可能と
なる。この2次元画像は、色付けを施された関心領域を
有し、明るさ情報だけでなく、色情報を用いたあたり判
定を可能としてもよい。
In the image processing apparatus according to the fifth aspect of the present invention, a display processing unit for displaying an external image on a screen and brightness information of each pixel are set in association with a distance from a virtual reference plane. A storage unit that stores a two-dimensional image including the object, an input device that allows a user to input an operation to the appearance image, and an input device that receives an input and generates a virtual force represented by the input. An input receiving unit that detects a position to be applied and calculates virtual depth information corresponding to the magnitude or direction of the force;
In the two-dimensional image, a detection unit that determines the contact between the object in the two-dimensional image and the virtual force represented by the input by using the brightness information and the depth information of the pixel corresponding to the position. Prepare By using a two-dimensional image in which pixel brightness information is associated with virtual depth information, it is possible to realize three-dimensional hit determination with a two-dimensional image with a small amount of data, and also to visually It is possible to use a meaningful image for the judgment. This two-dimensional image may have a colored region of interest, and it may be possible to make a hit determination using color information as well as brightness information.

【0016】なお、上記の発明の概要は、本発明の必要
な特徴の全てを列挙したものではなく、これらの特徴群
の組合わせも又発明となりうる。また、本発明の表現を
装置、方法、システム、コンピュータプログラムの間で
変換したものもまた、本発明の態様として有効である。
The above summary of the invention does not enumerate all the necessary features of the present invention, and a combination of these feature groups can also be an invention. Further, the expression of the present invention converted between the device, the method, the system, and the computer program is also effective as an aspect of the present invention.

【0017】[0017]

【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態は特許請求の範囲
に係る発明を限定するものではなく、また実施形態の中
で説明されている特徴の組合せの全てが発明の解決手段
に必須であるとは限らない。また、以下の複数の実施形
態にかかる装置およびシステムは、ハードウエアコンポ
ーネントでいえば、任意のコンピュータのCPU、メモ
リ、メモリにロードされたプログラムなどによって実現
されるが、主として図面では、それらの連携によって実
現される機能ブロックを描いている。したがって、これ
らの機能ブロックがハードウエアのみ、ソフトウエアの
み、またはそれらの組合せによっていろいろな形で実現
できることは、当業者には理解されるところであり、こ
れらの機能をコンピュータに実現させるプログラム、お
よびそのプログラムを記録したコンピュータ読み取り可
能な記録媒体も、以下の実施形態に含まれる。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the scope of claims and are described in the embodiments. Not all of the combinations of features described above are essential for the solution of the invention. Further, the devices and systems according to the following embodiments are realized by a CPU, a memory, a program loaded in a memory, and the like of an arbitrary computer in terms of hardware components. It depicts the functional blocks realized by. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms only by hardware, only software, or a combination thereof, and a program that causes a computer to realize these functions, and A computer-readable recording medium recording a program is also included in the following embodiments.

【0018】図1は、本発明の第1の実施形態にかかる
画像処理装置100の構成図である。この画像処理装置
100は、画像処理を行う汎用コンピュータであってよ
く、また、医療診断・トレーニング装置や、ゲーム装
置、DVD再生装置、放送受信を行うデコーダ、セット
トップボックス、PDA端末や携帯電話を含む携帯端末
など、要は画像処理機能を実現することができる機器で
あればよい。以下では、これらの機器を代表して、この
画像処理装置100を、コンピュータシミュレーション
により仮想現実の手術をユーザに体験させることのでき
るバーチャル外科手術装置として利用する場合を例にと
り説明を行う。
FIG. 1 is a block diagram of an image processing apparatus 100 according to the first embodiment of the present invention. The image processing device 100 may be a general-purpose computer that performs image processing, and may be a medical diagnosis / training device, a game device, a DVD reproducing device, a decoder for receiving broadcasts, a set top box, a PDA terminal, or a mobile phone. In short, any device that can realize the image processing function, such as a mobile terminal including the device, may be used. Hereinafter, as a representative of these devices, the case where the image processing apparatus 100 is used as a virtual surgical operation apparatus that allows a user to experience a virtual reality operation by computer simulation will be described as an example.

【0019】画像処理装置100は、入力受付部24、
選択部26、表示処理部30、検出部40、応答処理部
42、スピーカー44および記憶装置50を備える。表
示装置20ないし入力デバイス22は、画像処理装置1
00の構成に組み込まれてもよいし、外部装置として存
在してもよい。表示装置20は、画像を映し出す画面を
有しており、ユーザは、画面に表示される外観画像を見
ながら、様々な入力操作を行うことができる。外観画像
は、例えば仮想手術が行われる人体の頭部などの画像を
含む。入力デバイス22は、表示される外観画像に対す
るユーザによる操作入力を行わしめることを可能とす
る。この入力デバイス22は、ポインティングデバイ
ス、グローブ型デバイス、また反力つき入力デバイスな
どであってよく、要は外観画像に対して、コンピュータ
上で所望の入力を与えることのできる入力インターフェ
ースであればよい。特に、現実に近い環境を実現するた
めには、入力デバイス22は、ユーザにより外観画像に
対して仮想的に与えられる力を入力受付部24に伝達
し、その力に対する反力をユーザに返すような入力イン
ターフェースであることが好ましい。
The image processing apparatus 100 includes an input receiving section 24,
The selection unit 26, the display processing unit 30, the detection unit 40, the response processing unit 42, the speaker 44, and the storage device 50 are provided. The display device 20 or the input device 22 is the image processing device 1.
00, or may be present as an external device. The display device 20 has a screen that displays an image, and the user can perform various input operations while looking at the appearance image displayed on the screen. The appearance image includes, for example, an image of the head of a human body on which virtual surgery is performed. The input device 22 enables a user to input an operation to the displayed appearance image. The input device 22 may be a pointing device, a glove-type device, an input device with a reaction force, or the like, in short, any input interface capable of giving desired input on the computer to the appearance image. In particular, in order to realize an environment close to reality, the input device 22 transmits a force virtually given by the user to the appearance image to the input reception unit 24 and returns a reaction force to the force to the user. It is preferable that the input interface is simple.

【0020】記憶装置50は、表示画像データ格納部5
2、断面画像データ格納部54およびオブジェクトテー
ブル56とを含む。表示画像データ格納部52は、表示
装置20に表示するための外観画像データを格納する。
この画像データは、3次元の外観画像データであっても
よいが、処理するデータ量を少なくするために、2次元
の画像データであってもよい。表示処理部30は、ユー
ザからの入力に基づいて、その外観画像を適宜変化させ
ることが好ましい。
The storage device 50 includes a display image data storage unit 5
2, including a cross-sectional image data storage unit 54 and an object table 56. The display image data storage unit 52 stores appearance image data to be displayed on the display device 20.
This image data may be three-dimensional appearance image data, but may be two-dimensional image data in order to reduce the amount of data to be processed. It is preferable that the display processing unit 30 appropriately change the appearance image based on the input from the user.

【0021】一方、断面画像データ格納部54は、オブ
ジェクトを検出するための非表示用の複数の断面画像デ
ータを格納する。「非表示用」の画像とは、表示装置2
0においてユーザに対して表示されるための画像ではな
いことを意味するのであって、断面画像自体が、表示不
能であることを意味するものではない。すなわち、本実
施の形態では、非表示用画像とは、表示可能なデータ形
式を有していてもよいが、ユーザによる通常の使用状態
においては、表示装置20に表示されないという意味で
用いる。断面画像は、例えば人体のCTスキャン画像の
ように、内部組織を含んだオブジェクトそのものを所定
の方向にスライスしたものであってもよく、また、その
CTスキャン画像を仮想的な3次元オブジェクトに再構
成して、その3次元オブジェクトを所定の方向にスライ
スしたものであってもよい。
On the other hand, the section image data storage section 54 stores a plurality of non-display section image data for detecting an object. The “non-display” image means the display device 2
At 0, it means that the image is not to be displayed to the user, and does not mean that the cross-sectional image itself cannot be displayed. That is, in the present embodiment, the non-display image may have a data format that can be displayed, but is used in the sense that the non-display image is not displayed on the display device 20 in a normal use state by the user. The cross-sectional image may be a slice of an object itself including internal tissue in a predetermined direction, such as a CT scan image of a human body, and the CT scan image is reconstructed into a virtual three-dimensional object. It may be configured to slice the three-dimensional object in a predetermined direction.

【0022】複数の断面画像のうち少なくとも一つは、
含まれるオブジェクトに対してオブジェクト識別情報を
付加した関心領域をもつ。ここで、オブジェクト識別情
報は、含まれるオブジェクトを識別するための情報であ
って、例えば、2次元的に表現されるオブジェクトに対
して、所定の色付けを施したものであってよい。この断
面画像は、外観画像の仮想的な深さ方向に複数枚用意さ
れる。ユーザにより、深さに関する入力指示がなされた
とき、断面画像データ格納部54からその指示に適合す
る断面画像が選択され、オブジェクトの検出に利用され
る。このように、断面画像は、ユーザ入力が関心領域を
指示しているか否かの判定、いわゆるあたり判定に用い
られる。
At least one of the plurality of sectional images is
It has a region of interest in which object identification information is added to the included object. Here, the object identification information is information for identifying an included object, and may be, for example, information in which a two-dimensionally expressed object is colored in a predetermined manner. A plurality of cross-sectional images are prepared in the virtual depth direction of the appearance image. When the user gives an input instruction regarding the depth, a cross-sectional image conforming to the instruction is selected from the cross-sectional image data storage unit 54 and used for detecting the object. In this way, the cross-sectional image is used for determining whether or not the user input indicates the region of interest, that is, so-called hit determination.

【0023】オブジェクトテーブル56は、オブジェク
ト識別情報と、オブジェクト名、ユーザへの応答とを対
応付けて格納する。この応答は、ユーザに対する警告
や、良好な操作であることを伝えるメッセージを含む。
The object table 56 stores the object identification information, the object name, and the response to the user in association with each other. This response includes a warning to the user and a message telling that the operation is good.

【0024】まず、ユーザが、表示装置20に表示され
る外観画像に対して、入力デバイス22を介して操作入
力を行う。この画像処理装置100をバーチャル手術装
置として利用する場合、表示装置20には人体の一部を
示す外観画像が表示され、医学生やインターンなどのユ
ーザは、入力デバイス22を操作して、画面に表示され
る外観画像に対して、入力デバイス22に連動する仮想
的なメスにより患部の切開を行う。
First, the user inputs an operation to the appearance image displayed on the display device 20 via the input device 22. When the image processing apparatus 100 is used as a virtual surgical apparatus, an external image showing a part of the human body is displayed on the display device 20, and a user such as a medical student or an intern operates the input device 22 to display it on the screen. With respect to the displayed appearance image, an incision is made on the affected area with a virtual scalpel interlocking with the input device 22.

【0025】入力受付部24は、入力デバイス22から
の入力を受け付ける。この実施の形態では、入力受付部
24が、入力デバイス22からの入力に基づいて、仮想
のオブジェクトに対して与えられる仮想的な力の大きさ
と、力が加えられている外観画像中の位置、さらに力の
向きとを検出し、仮想的にメスが切開した深さを演算し
て求める。この深さは、力の大きさ及び/又は向きによ
り求めることができる。仮想的な力の大きさは、ユーザ
により入力デバイス22に加えられる力の大きさや、入
力デバイス22に設けられた入力ボタンを押した回数、
押すボタンの組合わせなどによって求められる。仮想的
な力の向きについては、ユーザにより入力デバイス22
に加えられる力の向きにより定められてもよく、また例
えば画面に対して垂直な方向というように予め設定され
ていてもよい。演算された深さ情報は、表示処理部30
に供給され、表示処理部30は、その深さ情報に基づい
て、表示画像データ格納部52に格納されている外観画
像を選択し、表示装置20に表示させることができる。
また、表示処理部30は、入力に連動して、仮想的なメ
スを表示装置20の画面上で動かすことが好ましい。
The input receiving section 24 receives an input from the input device 22. In this embodiment, the input receiving unit 24 determines the magnitude of the virtual force applied to the virtual object based on the input from the input device 22, the position in the appearance image to which the force is applied, Further, the direction of the force is detected, and the depth at which the knife is incised is calculated and obtained. This depth can be determined by the magnitude and / or the direction of the force. The magnitude of the virtual force is the magnitude of the force applied to the input device 22 by the user, the number of times the input button provided on the input device 22 is pressed,
It is calculated by the combination of push buttons. The virtual force direction is determined by the user using the input device 22.
May be determined by the direction of the force applied to the screen, or may be set in advance, for example, in a direction perpendicular to the screen. The calculated depth information is displayed by the display processing unit 30.
The display processing unit 30 can select the appearance image stored in the display image data storage unit 52 based on the depth information and display it on the display device 20.
In addition, the display processing unit 30 preferably moves the virtual knife on the screen of the display device 20 in synchronization with the input.

【0026】選択部26は、入力受付部24から、仮想
メスの深さ情報と、仮想メスが配置されている外観画像
中の位置情報とを受ける。この選択部26は、深さ情報
に基づいて、断面画像データ格納部54に格納されてい
る断面画像を選択する。選択された断面画像は、検出部
40に供給される。このとき、選択部26は、仮想メス
の位置情報を検出部40に供給する。この位置情報は、
入力受付部24から検出部40に直接送られてもよい。
The selection unit 26 receives the depth information of the virtual knife and the position information in the appearance image in which the virtual knife is arranged from the input reception unit 24. The selection unit 26 selects the cross-sectional image stored in the cross-sectional image data storage unit 54 based on the depth information. The selected cross-sectional image is supplied to the detection unit 40. At this time, the selection unit 26 supplies the position information of the virtual knife to the detection unit 40. This location information is
It may be directly sent from the input reception unit 24 to the detection unit 40.

【0027】検出部40は、選択された断面画像におい
て、仮想メスの位置情報により指定される位置のオブジ
ェクト識別情報を検出する。外観画像と断面画像の画像
サイズが等しい場合には、仮想メスの位置情報は、断面
画像上の位置情報として利用でき、画像サイズが異なる
場合には、仮想メスの位置情報を断面画像上の位置情報
に変換してオブジェクト識別情報を検出する。この例で
は、オブジェクト識別情報として、指定された位置の色
情報が検出される。指定された位置が関心領域である場
合には、その色情報に基づいて、オブジェクトテーブル
56によりオブジェクトが特定される。オブジェクトテ
ーブル56は、ユーザに対する応答を含んでおり、検出
部40がオブジェクトを検出すると、応答処理部42
が、それを受けて、オブジェクトテーブル56に基づい
て応答を生成する。この応答は、例えば、「メスに力が
入りすぎです。」や、「脳組織を傷つけてしまいまし
た。」などといった警告や、「手術は順調です。」とい
ったメッセージであってよい。応答処理部42は、この
警告やメッセージを表示処理部30を介して表示装置2
0において表示させてもよく、また、スピーカー44か
ら音声情報としてユーザに報知してもよい。
The detecting section 40 detects the object identification information at the position designated by the position information of the virtual knife in the selected cross-sectional image. If the image size of the appearance image and the cross-sectional image are the same, the position information of the virtual knife can be used as position information on the cross-sectional image. If the image size is different, the position information of the virtual knife is used as the position on the cross-sectional image. Convert the information and detect the object identification information. In this example, the color information at the specified position is detected as the object identification information. When the designated position is the region of interest, the object is identified by the object table 56 based on the color information. The object table 56 includes a response to the user, and when the detection unit 40 detects an object, the response processing unit 42.
Receives it and generates a response based on the object table 56. This response may be, for example, a warning such as "The scalpel is overpowered", "I have injured the brain tissue", or a message such as "The surgery is going well." The response processing unit 42 sends this warning or message to the display device 2 via the display processing unit 30.
0 may be displayed, or the user may be notified as audio information from the speaker 44.

【0028】図2は、表示装置20に表示される頭部を
示す外観画像の一例である。図2(a)において、仮想
メスを入れるための領域が点線で示されている。医学生
などのユーザは、入力デバイス22を介して、仮想メス
を外観画像上で操作し、頭部の切開を行っていく。図2
(b)は、仮想メス46を用いて、半円形に頭皮を切開
した状態を示す。図中、斜線で示されている領域は、頭
皮内部にある頭蓋骨の表層組織を示している。図2
(a)から図2(b)に至る過程は、ユーザによる仮想
メス46の動きに合わせて、リアルタイムで、外観画像
を展開していくことが好ましい。
FIG. 2 is an example of an appearance image showing the head displayed on the display device 20. In FIG. 2A, a region for inserting a virtual knife is shown by a dotted line. A user such as a medical student operates the virtual scalpel on the appearance image via the input device 22 to make an incision in the head. Figure 2
(B) shows a state in which the scalp is incised in a semicircle using the virtual knife 46. In the figure, the hatched region indicates the surface tissue of the skull inside the scalp. Figure 2
In the process from (a) to FIG. 2 (b), it is preferable to develop the appearance image in real time according to the movement of the virtual knife 46 by the user.

【0029】図3は、頭部の断面画像を示す。断面画像
は、立体的な頭部の頂部の接平面を基準深さ0mmの基
準平面に設定し、頭頂部から頭部の内部に向かう接平面
の法線に沿った方向(深さ方向)において、頭部に含ま
れる頭蓋骨を該基準平面に平行にスライスした画像であ
る。なお、深さ方向において、0mm<dmm<d
mm<dmmの関係がある。図3(a)は、0mmの
深さにおける断面画像を示す。この図3(a)には、人
体のオブジェクト、すなわち内部組織である頭蓋骨を示
す関心領域は存在しない。
FIG. 3 shows a cross-sectional image of the head. Cross section image
Is the base with a reference depth of 0 mm on the tangent plane of the top of the three-dimensional head.
A tangential plane set from the top of the head to the inside of the head
Included in the head in the direction along the normal of (depth direction)
It is an image obtained by slicing a skull that is parallel to the reference plane.
It In the depth direction, 0 mm <d1mm <d Two
mm <dThreeThere is a relationship of mm. Figure 3 (a) shows that
The cross-sectional image in depth is shown. In FIG. 3 (a), the person
Shows the body objects, the internal tissues of the skull
There is no region of interest.

【0030】図3(b)は、dmmの深さにおける断
面画像を示す。図中、複数の点が示されている領域は、
青の色付けが施されており、仮想メスが頭蓋骨まであと
僅かで達する深さであることを示す。図1を参照して、
検出部40が、この断面画像において、仮想メスにより
特定される位置が青色であることを検出すると、応答処
理部42が、これ以上深く切開してはいけないことを指
示する警告を発する。この例において、青の領域は、頭
蓋骨そのものを表現するものではなく、頭蓋骨近傍の内
部組織を示しており、すなわち、頭蓋骨そのものだけで
なく、その周辺組織についても一つのオブジェクト(頭
蓋骨)として扱っている。他の例において、頭蓋骨と、
その周辺組織をそれぞれ別個のオブジェクトとして扱っ
てもよいことは言うまでもない。
FIG. 3B shows a sectional image at a depth of d 1 mm. In the figure, the area where multiple points are shown is
It is colored blue to show that the virtual scalpel is only a short distance away from the skull. Referring to FIG.
When the detection unit 40 detects that the position specified by the virtual knife is blue in this cross-sectional image, the response processing unit 42 issues a warning instructing that the incision should not be made any deeper. In this example, the blue region does not represent the skull itself, but shows the internal tissue near the skull, that is, not only the skull itself but also its surrounding tissues are treated as one object (skull). There is. In another example, a skull,
It goes without saying that the surrounding tissues may be treated as separate objects.

【0031】図3(c)は、dmmの深さにおける断
面画像を示す。図中、斜線が表示されている領域は、緑
の色付けが施されており、仮想メスが頭蓋骨に到達した
ことを示す。検出部40が、この断面画像において仮想
メスにより特定される位置が緑色であることを検出する
と、応答処理部42が、直ちに切開を止めるよう警告を
発する。
FIG. 3C shows a sectional image at a depth of d 2 mm. In the figure, the shaded area is colored green, indicating that the virtual knife has reached the skull. When the detection unit 40 detects that the position specified by the virtual knife in this cross-sectional image is green, the response processing unit 42 immediately issues a warning to stop the incision.

【0032】図3(d)は、dmmの深さにおける断
面画像を示す。図中、塗りつぶされている領域は、赤の
色付けが施されており、仮想メスがこの領域まで入れら
れると、頭蓋骨がひどく損傷した状態になることを示
す。この断面画像において、仮想メスにより特定される
位置が赤色であることが検出されると、応答処理部42
が、患者に致命傷を与えたことを示す警告を発する。こ
のように、同一のオブジェクトに対して付加する色をそ
の重要度に応じて変化させることにより、状況に応じた
有用な指示をユーザに対して与えることが可能となる。
また、現実に近い手術シミュレーションを実現するため
に、色に応じて、入力デバイス22に与える反力の大き
さを変化させてもよい。
FIG. 3D shows a sectional image at a depth of d 3 mm. In the figure, the filled area is colored red, which indicates that the skull is severely damaged when the virtual knife is inserted up to this area. When it is detected that the position specified by the virtual knife is red in this cross-sectional image, the response processing unit 42
Issues a warning that the patient has been fatally injured. In this way, by changing the color to be added to the same object according to its importance, it becomes possible to give a user a useful instruction according to the situation.
Further, in order to realize a surgery simulation close to reality, the magnitude of the reaction force applied to the input device 22 may be changed according to the color.

【0033】図4は、図3に示した断面画像に対応付け
られるオブジェクトテーブル56の一例を示す。このオ
ブジェクトテーブル56は、オブジェクト識別情報、オ
ブジェクト名、ユーザからの入力に対する応答とを対応
付けて保持する。この例では、オブジェクト名は頭蓋骨
であり、オブジェクト識別情報である色情報に対応付け
て、ユーザに対する応答が記録されている。具体的に
は、関心領域の色が青の場合には警告1が、緑の場合に
は警告2が、赤の場合には警告3が対応付けられてい
る。
FIG. 4 shows an example of the object table 56 associated with the cross-sectional image shown in FIG. The object table 56 holds the object identification information, the object name, and the response to the input from the user in association with each other. In this example, the object name is a skull, and the response to the user is recorded in association with the color information that is the object identification information. Specifically, when the color of the region of interest is blue, warning 1 is associated, when it is green, warning 2 is associated, and when it is red, warning 3 is associated.

【0034】以上、画像処理装置100を、頭部の切開
手術を例に説明したが、他の重要な内部組織、例えば、
神経系や血管などを関心領域として色付けし、人体のさ
まざまな部位における断面画像を用意して、多様な手術
シミュレーションに対応できるように構成することも可
能である。上記した例では、同一のオブジェクトを色分
けした場合について説明したが、オブジェクトが複数存
在する場合には、オブジェクトごとに異なる色付けを施
すことが好ましい。本実施形態における画像処理装置1
00は、従来よりもデータ量を大幅に削減した2次元の
断面画像を用いてオブジェクト検出を行うため、人体の
多くの部位についての手術シミュレーション用のデータ
を保持することを問題とせず、多様な仮想手術に対応す
ることが可能である。また、扱うデータ量が少ないた
め、演算に時間が費やされず、高速に応答を生成するこ
とも可能となる。
The image processing apparatus 100 has been described above by taking an incision operation on the head as an example, but other important internal tissues, for example,
It is also possible to color the nervous system and blood vessels as regions of interest, prepare cross-sectional images of various parts of the human body, and configure it so as to be compatible with various surgical simulations. In the example described above, the same object is color-coded, but when there are a plurality of objects, it is preferable to apply different coloring to each object. Image processing apparatus 1 according to the present embodiment
00 detects an object using a two-dimensional cross-sectional image in which the amount of data is significantly reduced as compared with the conventional technique, and therefore does not pose a problem of holding data for surgery simulation for many parts of the human body, and can perform various operations. It is possible to support virtual surgery. In addition, since the amount of data to be handled is small, it is possible to generate a response at high speed without spending time for calculation.

【0035】図5は、第1の実施の形態で説明した画像
処理技術をゲームに応用した例を説明するための説明図
である。ここでは、地中に埋め込まれたオブジェクト
を、ゲームのキャラクタが鍬により探し出す宝捜しゲー
ムを想定する。図5(a)は、ゲームの進行画面を示
す。このキャラクタは、ユーザからの指示により、画面
中の適当な場所を掘っていく。ここでは、キャラクタが
地点Xを掘っている状態が示されている。キャラクタが
掘り下げた深さは、図1に関連して説明したように、入
力受付部24で計算される。
FIG. 5 is an explanatory diagram for explaining an example in which the image processing technique described in the first embodiment is applied to a game. Here, it is assumed that the game character searches for a treasure hunt for an object embedded in the ground with a hoe. FIG. 5A shows a game progress screen. This character digs an appropriate place on the screen according to an instruction from the user. Here, a state in which the character is digging at the point X is shown. The depth dug by the character is calculated by the input reception unit 24 as described with reference to FIG.

【0036】図5(b)は、地中に仮想的に埋め込まれ
ているオブジェクト(壷)を、3次元的に示したもので
ある。このオブジェクトは、A面、B面、C面の3つの
平面でスライスされ、そのスライス画像は、断面画像と
して断面画像データ格納部54(図1参照)に保持され
る。これらの断面画像は、いずれも地表面からの深さ情
報を有している。
FIG. 5B is a three-dimensional view of an object (jar) virtually embedded in the ground. This object is sliced on three planes, that is, an A plane, a B plane, and a C plane, and the slice image is held as a slice image in the slice image data storage unit 54 (see FIG. 1). Each of these cross-sectional images has depth information from the ground surface.

【0037】図5(c)は、地表面と、地中のオブジェ
クトとの位置関係を説明するための説明図である。地点
Xが、深さ方向においてオブジェクトの真上に存在して
おり、地点Yが、オブジェクトの左端に位置している。
FIG. 5C is an explanatory diagram for explaining the positional relationship between the ground surface and an object in the ground. The point X is located right above the object in the depth direction, and the point Y is located at the left end of the object.

【0038】図6は、オブジェクトの断面画像を示す。
具体的には、図6(a)がA面における断面画像を、図
6(b)がB面における断面画像を、図6(c)がC面
における断面画像を示す。円で囲われている領域は、そ
の平面中にオブジェクトが存在していることを示す関心
領域であり、同一色で塗りつぶされている。
FIG. 6 shows a cross-sectional image of an object.
Specifically, FIG. 6A shows a sectional image on the A surface, FIG. 6B shows a sectional image on the B surface, and FIG. 6C shows a sectional image on the C surface. An area surrounded by a circle is an area of interest indicating that an object exists in the plane and is filled with the same color.

【0039】図示されるように、キャラクタが地点Xを
掘っている場合、A面の深さまで掘り下げると、鍬が、
オブジェクトである壷にヒットする。それは、A面にお
いて、ユーザの入力位置Xが関心領域に含まれているこ
とから判定される。一方、キャラクタが地点Yを掘る
と、C面の深さまで掘り下げたときに初めて壷にヒット
する。したがって、B面までしか掘らない場合には、壷
は見つからない。このように、深さ方向に存在する断面
画像をオブジェクトの検出処理に用いることによって、
オブジェクトを早く見つけるためにはどこを掘り下げる
のがよいかという運の要素をゲームに加えることがで
き、ゲームに新たな楽しみを与えることが可能となる。
As shown in the figure, when the character is digging at the point X, when the character is dug down to the depth of the plane A, the hoe
Hit the jar that is the object. It is determined from the fact that the input position X of the user is included in the region of interest on the A surface. On the other hand, when the character digs at the point Y, the character hits the jar only when it is dug down to the depth of the C plane. Therefore, if you dig only to the B side, you cannot find the urn. In this way, by using the cross-sectional image existing in the depth direction for the object detection processing,
It is possible to add to the game the element of luck where you should dig in to find an object quickly, and it is possible to give the game new fun.

【0040】図5および6に関連して宝捜しのゲームに
ついて説明したが、本実施形態における画像処理技術
は、格闘ゲームなどを含めた他のゲームにも適用するこ
とができる。この場合には、相手からの攻撃がヒットし
た位置と、その時の仮想的な力を検出して、ダメージを
ヒットした位置からの深さ方向の距離に基づいて導き出
す。この深さ方向に関心領域を有する断面画像を予め用
意しておき、その距離により選択される断面画像に基づ
いて、その攻撃により受けたダメージが致命的か、軽度
であるかを判断する。現在の3D格闘ゲームは、余りに
も膨大な演算量のため、リアルタイムな演算処理が厳し
いという現実がある。本実施の形態による画像処理技術
を用いれば、攻撃のダメージを2次元画像を用いて検出
することができるため、演算時間が短くて済み、リアル
タイムな高速処理を実現することが可能となる。
Although the treasure hunting game has been described with reference to FIGS. 5 and 6, the image processing technique in this embodiment can be applied to other games including a fighting game and the like. In this case, the position where the attack from the opponent hits and the virtual force at that time are detected, and the damage is derived based on the distance in the depth direction from the position where the hit. A cross-sectional image having a region of interest in the depth direction is prepared in advance, and based on the cross-sectional image selected according to the distance, it is determined whether the damage received by the attack is fatal or mild. In the current 3D fighting game, there is a reality that the real-time arithmetic processing is difficult because of the huge amount of calculation. By using the image processing technique according to the present embodiment, the damage of an attack can be detected using a two-dimensional image, so that the calculation time is short and real-time high-speed processing can be realized.

【0041】本実施形態による画像処理技術は、仮想手
術装置やゲーム装置などの画像処理装置として単独で利
用できることは言うまでもないが、3次元の画像処理技
術と組合わせて利用できることは当業者に理解されると
ころである。例えば、表示映像については3次元オブジ
ェクトを利用し、オブジェクトの検出ないしは入力に対
する応答の生成などについては本実施の形態による画像
処理技術を利用するように、3Dと2Dとを融合した画
像処理装置ないしはシステムを構成してもよい。特に3
次元オブジェクトが非常に複雑な形状を有している場合
には、オブジェクトのあたり判定には膨大なデータを処
理する必要があるため、本実施形態による画像処理技術
を併用することは、非常に有効な手法であるといえる。
It goes without saying that the image processing technique according to this embodiment can be used alone as an image processing device such as a virtual surgery device or a game device, but it is understood by those skilled in the art that it can be used in combination with a three-dimensional image processing technique. It is about to be done. For example, a 3D object is used for a display image, and the image processing technique according to the present embodiment is used for detecting an object or generating a response to an input. The system may be configured. Especially 3
When a two-dimensional object has a very complicated shape, it is necessary to process a huge amount of data for hitting the object. Therefore, it is very effective to use the image processing technique according to the present embodiment together. It can be said that it is a method.

【0042】図7は、本実施の形態における画像処理技
術を説明するためのフローチャートである。S10で、
本フローがスタートする。S12で、表示装置20にお
いて外観画像を表示させ、ユーザからの入力を待機す
る。入力デバイス22によりユーザからの入力が得られ
ると、S14で、その入力によりオブジェクトに対して
与えられる仮想的な深さ情報と位置情報とを検出する。
続いて、S16で、深さ情報に基づいて断面画像を選択
する。それから、S18で、位置情報に基づいて、その
断面画像においてユーザにより指示されている位置の色
情報を検出し、その位置が関心領域であるか否か、換言
するとオブジェクトに相当する構成であるか否かを判定
する。関心領域でない場合は、本フローは、S14に戻
り、再び判定(S18)までのフローを実行する。関心
領域である場合には、S20で、ユーザの入力に対する
応答を生成する。応答生成後、S22で、ユーザによる
操作を終了する場合には、S24で、全体のフローを終
了する。続行の場合には、再度、S14から上記フロー
を繰り返す。なお、入力に応じて、表示装置20に表示
する画像は、適宜変更していくことが好ましい。
FIG. 7 is a flow chart for explaining the image processing technique in this embodiment. In S10,
This flow starts. In S12, the appearance image is displayed on the display device 20, and the input by the user is awaited. When the input from the user is obtained by the input device 22, the virtual depth information and the position information given to the object by the input are detected in S14.
Then, in S16, a cross-sectional image is selected based on the depth information. Then, in S18, based on the position information, the color information of the position designated by the user in the cross-sectional image is detected, and whether the position is the region of interest, in other words, the structure corresponding to the object. Determine whether or not. If it is not the region of interest, the flow returns to S14, and the flow up to the determination (S18) is executed again. If it is the region of interest, a response to the user's input is generated in S20. After the response is generated, if the operation by the user is ended in S22, the whole flow is ended in S24. When continuing, the above flow is repeated from S14. It is preferable that the image displayed on the display device 20 is appropriately changed according to the input.

【0043】以上のように、第1の実施の形態では、色
情報を用いて、オブジェクトと、入力により表現される
仮想的な力とのあたり判定を実現する例について説明し
た。以下では、第2の実施の形態として、ピクセルごと
に明るさ情報をもたせた2次元画像を用いて、オブジェ
クトと仮想的な力とのあたり判定を実現する例について
説明する。
As described above, in the first embodiment, an example has been described in which the collision determination between the object and the virtual force represented by the input is realized by using the color information. In the following, as a second embodiment, an example will be described in which a two-dimensional image in which brightness information is provided for each pixel is used to realize a collision determination between an object and a virtual force.

【0044】図8は、本発明の第2の実施の形態で用い
る2次元画像の一例を示す。この2次元画像は、人の顔
面の正面図を示し、ピクセルごとに明るさ情報を有して
いる。この2次元画像は、仮想の基準面からの距離に対
応付けて明るさ情報を各ピクセルに割り当てることによ
って生成される。ここで、仮想の基準面は、この画像面
に平行な平面であり、深さ方向は、この基準面に垂直な
方向とする。この例では、ピクセルの明るさ情報を、深
さ方向の距離に比例して暗くなるように設定しており、
具体的には、鼻先が一番明るく、顔面の輪郭付近が最も
暗くなるように明るさ情報が割り当てられている。明る
さ情報と深さ方向の距離(深さ情報)との関係を把握す
るために、ピクセルの明るさ情報と深さ情報とを一意に
対応付ける変換関数を用意してもよく、又は、明るさ情
報と深さ情報とを対応付けたテーブルを用意してもよ
い。なお、明るさ情報と深さ情報を変換する関数は、一
次関数や対数関数であってよく、またその他の関数であ
ってもよい。
FIG. 8 shows an example of a two-dimensional image used in the second embodiment of the present invention. This two-dimensional image shows a front view of a human face and has brightness information for each pixel. This two-dimensional image is generated by assigning brightness information to each pixel in association with the distance from the virtual reference plane. Here, the virtual reference plane is a plane parallel to this image plane, and the depth direction is a direction perpendicular to this reference plane. In this example, the brightness information of the pixel is set to darken in proportion to the distance in the depth direction,
Specifically, the brightness information is assigned such that the tip of the nose is brightest and the vicinity of the contour of the face is darkest. In order to grasp the relationship between the brightness information and the distance in the depth direction (depth information), a conversion function that uniquely associates the pixel brightness information with the depth information may be prepared, or the brightness You may prepare the table which matched information and depth information. The function for converting the brightness information and the depth information may be a linear function or a logarithmic function, or may be another function.

【0045】本実施形態において、明るさ情報が割り当
てられた顔面画像は、オブジェクトとして設定されてい
ることを意味する。すなわち、ここでは、顔面全体が1
つのオブジェクトとして設定されている。さらに、この
2次元画像には、額の部分に扇状に色付けされた関心領
域が設定されている。第1の実施の形態において説明し
たように、この関心領域はあたり判定に用いられるもの
であり、この顔面画像は、額の部分もオブジェクトとし
て設定されている。つまり、この2次元画像には、顔面
全体に1つのオブジェクトが設定されており、顔面中の
額の部分にも、1つのオブジェクトが設定されている。
関心領域を用いたあたり判定については第1の実施形態
で既に説明しているため、以下では、図1を参照して、
明るさ情報を用いたあたり判定について説明する。
In the present embodiment, the face image to which the brightness information is assigned means that it is set as an object. That is, here the entire face is 1
It is set as one object. Further, in this two-dimensional image, a region of interest colored in a fan shape is set on the forehead. As described in the first embodiment, this region of interest is used for hitting determination, and in this facial image, the forehead portion is also set as an object. That is, in this two-dimensional image, one object is set on the entire face, and one object is also set on the forehead part of the face.
Since the hit determination using the region of interest has already been described in the first embodiment, hereinafter, referring to FIG.
The hit determination using the brightness information will be described.

【0046】明るさ情報を用いたあたり判定を行う場合
には、記憶装置50が、断面画像データ格納部54の代
わりに、図8に示される顔面の表面画像を格納する2次
元画像格納部を備える。この顔面画像は、明るさ情報を
有しているため、視覚的に顔面の凹凸を表現することが
でき、表示装置20に表示するための外観画像として利
用することも可能である。
When the hit determination is performed using the brightness information, the storage device 50 uses a two-dimensional image storage unit for storing the surface image of the face shown in FIG. 8 instead of the sectional image data storage unit 54. Prepare Since this face image has brightness information, it can visually represent the unevenness of the face, and can also be used as an appearance image to be displayed on the display device 20.

【0047】2次元画像格納部は、ユーザによる作業工
程ごとに、この2次元画像を有してもよい。例えば、脳
内の処置を施すためには、まず、頭皮を剥いで、頭蓋骨
を切り外し、脳を表出させる前処置が必要となるが、2
次元画像格納部は、頭皮を剥ぐ工程で用いる画像と、頭
蓋骨を切り外す工程で用いる画像とを別画像として格納
しておく。図8に示される2次元画像は、頭皮を剥ぐ工
程に利用される。このように、複数の2次元画像を用意
することによって、様々な手術シミュレーションを実行
せしめることが可能となる。別の例では、表示画像デー
タ格納部52が、表示用の画像として、明るさ情報を有
する2次元表面画像データを格納し、検出部40が、仮
想メスとのあたり判定に、その2次元表面画像を利用す
るようにしてもよい。
The two-dimensional image storage unit may have this two-dimensional image for each work process by the user. For example, in order to perform treatment in the brain, first, the scalp is peeled off, the skull is cut off, and the pretreatment for exposing the brain is required.
The three-dimensional image storage unit stores the image used in the process of stripping the scalp and the image used in the process of cutting off the skull as separate images. The two-dimensional image shown in FIG. 8 is used in the process of stripping the scalp. In this way, by preparing a plurality of two-dimensional images, it becomes possible to execute various surgical simulations. In another example, the display image data storage unit 52 stores two-dimensional surface image data having brightness information as an image for display, and the detection unit 40 determines the two-dimensional surface for the contact with the virtual knife. You may make it utilize an image.

【0048】図1を参照して、入力受付部24は、入力
デバイス22からのユーザ入力を受け付け、その入力に
より表現される仮想的な力を検出する。具体的には、画
面中で操作される仮想メスが配置される位置と、仮想メ
スによる力の大きさまたは向きを検出する。それから、
仮想メスの力の大きさまたは向きに基づいて、オブジェ
クトに対する仮想メスの仮想的な深さ情報を演算して求
める。
Referring to FIG. 1, the input receiving section 24 receives a user input from the input device 22 and detects a virtual force represented by the input. Specifically, the position where the virtual knife operated on the screen is arranged and the magnitude or direction of the force by the virtual knife are detected. then,
Virtual depth information of the virtual knife with respect to the object is calculated and obtained based on the magnitude or direction of the force of the virtual knife.

【0049】選択部26は、入力受付部24から、仮想
メスの深さ情報と、仮想メスが配置されている外観画像
中の位置情報とを受ける。この選択部26は、作業工程
に合わせて、記憶装置50の2次元画像格納部(図示せ
ず)に格納されている2次元画像を選択する。頭皮を剥
ぐ工程においては、図8で示された画像が、検出部40
に供給される。このとき、選択部26は、仮想メスの位
置情報と深さ情報とを検出部40に供給する。この仮想
メスの情報は、入力受付部24から検出部40に直接送
られてもよい。
The selection unit 26 receives the depth information of the virtual knife and the position information in the appearance image in which the virtual knife is arranged from the input reception unit 24. The selection unit 26 selects a two-dimensional image stored in a two-dimensional image storage unit (not shown) of the storage device 50 according to the work process. In the process of stripping the scalp, the image shown in FIG.
Is supplied to. At this time, the selection unit 26 supplies the position information and the depth information of the virtual knife to the detection unit 40. The information of the virtual knife may be directly sent from the input reception unit 24 to the detection unit 40.

【0050】検出部40は、選択された2次元画像にお
いて、仮想メスの位置情報により指定される位置のピク
セルの明るさ情報と、深さ情報とを用いて、仮想メスが
顔面に届いているか否かを検出する。前述したように、
ピクセルの明るさ情報と、仮想的な深さ情報とは、変換
関数またはテーブルにより対応付けられており、仮想メ
スの深さ情報を、明るさ情報に変換し、その位置に割り
当てられたピクセルの明るさ情報と比較することによっ
て、オブジェクトである顔面と、仮想メスにより加えら
れる力とのあたり判定が行われる。
The detecting unit 40 uses the brightness information and the depth information of the pixel at the position specified by the position information of the virtual knife in the selected two-dimensional image to determine whether the virtual knife reaches the face. Detect whether or not. As previously mentioned,
The pixel brightness information and the virtual depth information are associated with each other by a conversion function or a table. The depth information of the virtual knife is converted into the brightness information, and the pixel of the pixel assigned to the position is converted. By comparing with the brightness information, the contact between the face, which is the object, and the force applied by the virtual scalpel is determined.

【0051】色情報と明るさ情報とは光学的に独立して
おり、第1の実施形態における色情報を用いたあたり判
定と、第2の実施形態における明るさ情報を用いたあた
り判定とを組合わせることによって、2次元画像を用い
た手術シミュレーションの可能性を広げることが可能と
なる。また、明るさ情報を用いたあたり判定のみを用い
て手術シミュレーションを実行できることも当業者に容
易に理解されるところである。
Color information and brightness information are optically independent, and the hit determination using the color information in the first embodiment and the hit determination using the brightness information in the second embodiment are performed. By combining them, it becomes possible to expand the possibility of surgical simulation using a two-dimensional image. It is also easily understood by those skilled in the art that the surgery simulation can be executed using only the hit determination using the brightness information.

【0052】図9は、本発明の第1または第2の実施形
態にかかる画像処理装置100のハードウェアコンポー
ネントを示す構成図である。画像処理装置100は、表
示装置20、入力デバイス22、VRAM(ビデオラン
ダムアクセスメモリ)58、CPU60、RAM(ラン
ダムアクセスメモリ)62、ハードディスク64および
ドライブ装置66を備える。図1と同一の符号を付した
表示装置20および入力デバイス22は、図1に関連し
て説明した機能および動作を実現する。これらの構成
は、バス68などの信号伝送路により電気的に接続され
ている。
FIG. 9 is a block diagram showing the hardware components of the image processing apparatus 100 according to the first or second embodiment of the present invention. The image processing apparatus 100 includes a display device 20, an input device 22, a VRAM (video random access memory) 58, a CPU 60, a RAM (random access memory) 62, a hard disk 64, and a drive device 66. The display device 20 and the input device 22 denoted by the same reference numerals as those in FIG. 1 realize the functions and operations described with reference to FIG. These components are electrically connected by a signal transmission path such as a bus 68.

【0053】ハードディスク64は、大容量の磁気記憶
装置であり、画像処理装置100においては、表示(外
観)画像データ、断面画像データ、2次元画像データお
よびオブジェクトテーブルなどを記憶する。VRAM5
8は、表示装置20に表示される画面内容を保持するメ
モリであり、表示画像のフレームデータが書き込まれ
る。このデータは、表示信号に変換されて表示装置20
に出力される。
The hard disk 64 is a large-capacity magnetic storage device, and in the image processing device 100, it stores display (appearance) image data, cross-sectional image data, two-dimensional image data, an object table and the like. VRAM5
Reference numeral 8 denotes a memory that holds the screen content displayed on the display device 20, and the frame data of the display image is written therein. This data is converted into a display signal and the display device 20
Is output to.

【0054】記録媒体70は、第1または第2の実施形
態に関連して説明した画像処理装置100の機能を、C
PU60に実現させるためのプログラムを記録する。記
録媒体70がドライブ装置66に挿入されると、そのプ
ログラムは、RAM62またはハードディスク64に読
み出され、CPU60は、読み出されたプログラムによ
り画像処理を行う。この記録媒体70は、CD−RO
M、DVD、FDなどのコンピュータ読み取り可能な媒
体である。また記録媒体70は、表示画像データ、断面
画像データ、2次元画像データ、オブジェクトテーブル
などを記録し、記録媒体70がドライブ装置66に挿入
されると、それらのデータがハードディスク64に書き
込まれてもよい。
The recording medium 70 has the functions of the image processing apparatus 100 described in connection with the first or second embodiment,
A program to be realized by the PU 60 is recorded. When the recording medium 70 is inserted into the drive device 66, the program is read into the RAM 62 or the hard disk 64, and the CPU 60 performs image processing by the read program. This recording medium 70 is a CD-RO.
It is a computer-readable medium such as M, DVD, FD. The recording medium 70 records display image data, cross-sectional image data, two-dimensional image data, an object table, etc., and when the recording medium 70 is inserted into the drive device 66, even if those data are written in the hard disk 64. Good.

【0055】ここでは、画像処理用のプログラムが記録
媒体70に記録されている例について説明したが、別の
例においては、プログラムは、無線、有線を問わず、外
部のサーバから送信されてもよい。図9に示したハード
ウェア構成において、プログラムは、コンピュータに画
像処理機能を実現させればよいのであって、外部から供
給される場合だけでなく、予めハードディスク64に格
納されていてよいことも当業者には理解されるところで
ある。
Here, an example in which the image processing program is recorded in the recording medium 70 has been described, but in another example, the program may be transmitted from an external server regardless of whether it is wireless or wired. Good. In the hardware configuration shown in FIG. 9, the program only needs to cause the computer to realize the image processing function, and may be stored in the hard disk 64 in advance as well as being supplied from the outside. It is understood by the trader.

【0056】図10は、本発明の第3の実施形態にかか
る画像処理システム200の構成図である。画像処理シ
ステム200は、画像配信装置210と、端末240と
を備え、画像配信装置210と端末240とがネットワ
ーク230を介して信号の授受を行うことができるよう
に構成されている。本明細書では、「ネットワーク」と
いう用語を、有線または無線の通信手段の双方を含む概
念として用いる。すなわち、画像配信装置210と端末
240は、電話回線や専用回線、公衆網などの有線で接
続されてもよく、また搬送波を介して無線で信号の授受
を行ってもよい。画像配信装置210は、インターネッ
トやイントラネット上でコンテンツを提供するサーバ
や、番組を放送する放送局などを含む。また、端末24
0は、汎用コンピュータであってよく、またゲーム装置
や、医療診断・トレーニング装置、放送受信機、さらに
は、PDA端末や携帯電話を含む携帯端末など、要は画
像処理機能を実現することができ、且つ通信機能を有す
る機器であればよい。
FIG. 10 is a block diagram of an image processing system 200 according to the third embodiment of the present invention. The image processing system 200 includes an image distribution device 210 and a terminal 240, and is configured so that the image distribution device 210 and the terminal 240 can exchange signals via the network 230. In this specification, the term "network" is used as a concept including both wired and wireless communication means. That is, the image distribution device 210 and the terminal 240 may be connected by a wire such as a telephone line, a dedicated line, or a public network, or may exchange signals wirelessly via a carrier wave. The image distribution device 210 includes a server that provides contents on the Internet or an intranet, a broadcasting station that broadcasts programs, and the like. In addition, the terminal 24
0 may be a general-purpose computer, and is capable of realizing image processing functions, such as game devices, medical diagnosis / training devices, broadcast receivers, and mobile terminals such as PDA terminals and mobile phones. It is sufficient that the device has a communication function.

【0057】画像配信装置210は、制御部220、記
憶部212および送受信部222を備える。記憶部21
2は、表示用の画像である外観画像のデータを格納する
表示画像データ格納部214、オブジェクトの断面画像
のデータを格納する断面画像データ格納部216、およ
びオブジェクトテーブル218を有する。送受信部22
2は、データ信号の送受信を行う機能を有する。
The image distribution device 210 comprises a control unit 220, a storage unit 212 and a transmission / reception unit 222. Storage unit 21
Reference numeral 2 has a display image data storage unit 214 that stores data of an appearance image that is a display image, a cross-sectional image data storage unit 216 that stores data of a cross-sectional image of an object, and an object table 218. Transmitter / receiver 22
2 has a function of transmitting and receiving a data signal.

【0058】端末240は、送受信部232および画像
処理装置100を備える。画像処理装置100について
は、前述した実施形態において説明したとおりである。
送受信部222は、データ信号の送受信を行う機能を有
する。
The terminal 240 includes a transmission / reception unit 232 and the image processing apparatus 100. The image processing apparatus 100 is as described in the above embodiment.
The transmission / reception unit 222 has a function of transmitting / receiving a data signal.

【0059】画像配信装置210は、端末240からの
画像配信要求を受けると、制御部220により、記憶部
212から、表示画像データ、断面画像データ、および
オブジェクトテーブルが読み出され、それらのデータを
送受信部222から送信する。端末240は、送受信部
232でそれらのデータを受け取り、画像処理装置10
0における記憶装置に格納する。画像処理装置100
は、受け取ったデータを利用して、第1の実施形態に関
連して説明した画像処理を行う。画像処理装置100
は、全ての表示画像、断面画像、およびオブジェクトテ
ーブルについてのデータを一度に受け取ってもよく、ま
た、画面に映し出される画像を変更する度に、新たな画
像のデータを受け取ってもよい。また、端末におけるあ
たり判定処理のために、送受信部222は、表示画像デ
ータおよび断面画像データを送信する前に、オブジェク
トテーブルを送信することが好ましい。
Upon receiving the image distribution request from the terminal 240, the image distribution device 210 reads the display image data, the cross-sectional image data, and the object table from the storage unit 212 by the control unit 220, and stores these data. It is transmitted from the transmission / reception unit 222. The terminal 240 receives the data at the transmission / reception unit 232, and the image processing apparatus 10 receives the data.
0 in the storage device. Image processing device 100
Performs the image processing described in connection with the first embodiment using the received data. Image processing device 100
May receive data for all display images, cross-sectional images and object tables at once, or may receive new image data each time the image displayed on the screen is changed. Further, for the hit determination processing in the terminal, it is preferable that the transmission / reception unit 222 transmits the object table before transmitting the display image data and the cross-sectional image data.

【0060】この第3の実施形態においては、画像処理
システム200が第1の実施形態における画像処理を行
う例について説明したが、この画像処理システム200
が、断面画像データ格納部216の代わりに2次元画像
データ格納部を設けて、第2の実施の形態で説明した画
像処理を行うことも可能であることは、当業者であれば
容易に理解できるところである。
In the third embodiment, an example in which the image processing system 200 performs the image processing in the first embodiment has been described, but the image processing system 200 is also described.
However, those skilled in the art can easily understand that it is possible to provide a two-dimensional image data storage unit instead of the cross-sectional image data storage unit 216 to perform the image processing described in the second embodiment. This is where you can do it.

【0061】図11は、本発明の第4の実施形態にかか
る画像処理システム200の構成図である。画像処理シ
ステム200は、画像配信装置210と、端末240と
を備え、画像配信装置210と端末240とがネットワ
ーク230を介して信号の授受を行うことができるよう
に構成されている。
FIG. 11 is a block diagram of an image processing system 200 according to the fourth embodiment of the present invention. The image processing system 200 includes an image distribution device 210 and a terminal 240, and is configured so that the image distribution device 210 and the terminal 240 can exchange signals via the network 230.

【0062】画像配信装置210は、制御部220、記
憶部212、送受信部222、入力取得部250、選択
部252、応答処理部254および検出部256を備え
る。端末240は、送受信部232、表示装置20、表
示処理部30、入力デバイス22、入力受付部24、お
よび記憶装置234を備える。図1または図10に示し
た構成と同一の符号を付した構成は、図1または図10
において対応する構成と同一または同様の機能および動
作を実現する。また、図1と同一名称の機能ブロック
は、第1の実施形態において説明した機能および動作を
実現する。
The image distribution device 210 comprises a control unit 220, a storage unit 212, a transmission / reception unit 222, an input acquisition unit 250, a selection unit 252, a response processing unit 254 and a detection unit 256. The terminal 240 includes a transmission / reception unit 232, a display device 20, a display processing unit 30, an input device 22, an input reception unit 24, and a storage device 234. 1 or 10 are designated by the same reference numerals as those shown in FIG. 1 or 10.
The same or similar function and operation as those of the corresponding configuration are realized. Further, the functional blocks having the same names as those in FIG. 1 realize the functions and operations described in the first embodiment.

【0063】画像配信装置210は、端末240からの
画像配信要求を受けると、制御部220が記憶部212
から表示画像データを読み出し、送受信部222から送
信する。端末240は、送受信部232で表示画像デー
タを受け取り、記憶装置234に格納する。表示処理部
30は、この表示画像を表示装置20において表示させ
る。
In the image distribution device 210, when the image distribution request is received from the terminal 240, the control unit 220 causes the storage unit 212 to operate.
The display image data is read from and is transmitted from the transmitting / receiving unit 222. The terminal 240 receives the display image data by the transmission / reception unit 232 and stores it in the storage device 234. The display processing unit 30 causes the display device 20 to display this display image.

【0064】端末のユーザは、表示装置20に表示され
た画像上で、入力デバイス22を介して、所望の操作入
力を行う。この操作入力情報は、入力受付部24により
受け付けられ、入力により加えられる仮想的な力、向き
および力の作用位置などに基づいて、オブジェクトに対
する深さ情報と、断面画像ないしは表示画像における位
置情報とを検出する。深さ情報および位置情報を含む入
力情報は、送受信部232より、画像配信装置210に
送信される。
The user of the terminal performs desired operation input on the image displayed on the display device 20 via the input device 22. The operation input information is received by the input receiving unit 24, and depth information for the object and position information in the cross-sectional image or the display image based on the virtual force applied by the input, the direction, and the action position of the force. To detect. The input information including the depth information and the position information is transmitted from the transmission / reception unit 232 to the image distribution device 210.

【0065】画像配信装置210において、送受信部2
22は、入力情報を受信し、入力取得部250に供給す
る。選択部252は、入力情報に含まれる深さ情報に基
づいて、断面画像を選択する。検出部256は、選択さ
れた断面画像と、選択部252から供給される入力の位
置情報に基づいてオブジェクトを検出する。入力の位置
情報は、入力取得部250から受け取ってもよい。応答
処理部254は、検出部256における検出結果と、オ
ブジェクトテーブルに基づいて、ユーザに対する応答を
生成する。この応答は、送受信部222を介して端末2
40に供給される。端末240は、応答を表示装置20
に表示させてもよいし、また、スピーカー(図示せず)
から音声出力させてもよい。この実施形態では、オブジ
ェクトの検出に伴うあたり判定を画像配信装置210側
でおこなうため、断面画像データを端末240に送信す
る必要がなく、送信データ量を少なくするという効果を
実現できる。
In the image distribution device 210, the transmission / reception unit 2
22 receives the input information and supplies it to the input acquisition unit 250. The selection unit 252 selects a cross-sectional image based on the depth information included in the input information. The detection unit 256 detects an object based on the selected cross-sectional image and the positional information of the input supplied from the selection unit 252. The input position information may be received from the input acquisition unit 250. The response processing unit 254 generates a response to the user based on the detection result of the detection unit 256 and the object table. This response is sent to the terminal 2 via the transmission / reception unit 222.
40. The terminal 240 displays the response on the display device 20.
, Or a speaker (not shown)
You may make it output a voice from. In this embodiment, since the image distribution apparatus 210 side performs the hit determination associated with the detection of the object, it is not necessary to transmit the cross-sectional image data to the terminal 240, and the effect of reducing the transmission data amount can be realized.

【0066】この第4の実施形態においては、画像処理
システム200が第1の実施形態における画像処理を行
う例について説明したが、この画像処理システム200
が、断面画像データ格納部216の代わりに2次元画像
データ格納部を設けて、第2の実施の形態で説明した画
像処理を行うことも可能であることは、当業者であれば
容易に理解できるところである。
In the fourth embodiment, an example in which the image processing system 200 performs the image processing in the first embodiment has been described. However, the image processing system 200
However, those skilled in the art can easily understand that it is possible to provide a two-dimensional image data storage unit instead of the cross-sectional image data storage unit 216 to perform the image processing described in the second embodiment. This is where you can do it.

【0067】以上、本発明を実施の形態をもとに説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態は例示であり、そ
れらの各構成要素や各処理プロセスの組合せに、さらに
いろいろな変形例が可能なこと、またそうした変形例も
本発明の範囲にあることは当業者に理解されるところで
ある。
Although the present invention has been described above based on the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is understood by those skilled in the art that the above-described embodiments are mere examples, and that various modifications can be made to the combinations of the respective constituent elements and the respective processing processes, and that such modifications are also within the scope of the present invention. This is where

【0068】例えば、図1を参照して、断面画像データ
格納部54は、複数の断面画像データをMPEG形式で
圧縮してまとめて格納してもよい。本来、MPEGコー
ディングは、時間方向における隣接フレームの差分を抽
出することでデータサイズを抑止することを特徴として
いるが、この変形例では、深さ方向に用意される断面画
像に大きな変化がないことに注目し、高い圧縮効果が期
待できるMPEG圧縮技術を利用する。このとき、断面
画像データ格納部54は、MPEG画像データに含まれ
る同期再生のための時間情報を、仮想的な深さ情報に変
換する変換関数を格納することが好ましい。この変換関
数により、ユーザ入力より得られる仮想的な深さ情報か
ら、あたり判定に用いる断面画像を取り出すことが可能
となる。変換関数の代わりに、仮想的な深さ情報と、M
PEG画像の時間情報とを対応付けたテーブルを用意し
てもよいことは言うまでもない。
For example, referring to FIG. 1, the cross-sectional image data storage unit 54 may compress a plurality of cross-sectional image data in MPEG format and store them together. Originally, the MPEG coding is characterized in that the data size is suppressed by extracting the difference between adjacent frames in the time direction, but in this modification, the cross-sectional image prepared in the depth direction does not change significantly. In particular, the MPEG compression technology that can expect high compression effect is used. At this time, it is preferable that the cross-sectional image data storage unit 54 stores a conversion function for converting the time information for synchronous reproduction included in the MPEG image data into virtual depth information. With this conversion function, it becomes possible to extract the cross-sectional image used for the hit determination from the virtual depth information obtained from the user input. Instead of the conversion function, virtual depth information and M
It goes without saying that a table in which the time information of the PEG image is associated with each other may be prepared.

【0069】[0069]

【発明の効果】本発明によれば、有用性の高い画像処理
機能を有する装置およびシステム、さらには、画像処理
機能をコンピュータに実現させるためのプログラムを提
供することができるという効果を奏する。
According to the present invention, it is possible to provide an apparatus and system having a highly useful image processing function, and further a program for causing a computer to realize the image processing function.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態にかかる画像処理装置
の構成図である。
FIG. 1 is a configuration diagram of an image processing apparatus according to a first embodiment of the present invention.

【図2】(a)は、仮想メスを入れるための領域を点線
で示し、(b)は、仮想メスを用いて、半円形に頭皮を
切開した状態を示す。
FIG. 2 (a) shows a region for inserting a virtual knife by a dotted line, and FIG. 2 (b) shows a state in which the scalp is incised in a semicircle using the virtual knife.

【図3】(a)は、0mmの深さにおける断面画像を示
し、(b)は、dmmの深さにおける断面画像を示
し、(c)は、dmmの深さにおける断面画像を示
し、(d)は、dmmの深さにおける断面画像を示
す。
3A is a sectional image at a depth of 0 mm, FIG. 3B is a sectional image at a depth of d 1 mm, and FIG. 3C is a sectional image at a depth of d 2 mm. And (d) shows a cross-sectional image at a depth of d 3 mm.

【図4】断面画像に対応付けられるオブジェクトテーブ
ルの一例を示す。
FIG. 4 shows an example of an object table associated with a cross-sectional image.

【図5】(a)は、画像処理技術をゲームに応用した例
を説明するための説明図であって、ゲームの進行画面を
示し、(b)は、地中に仮想的に埋め込まれているオブ
ジェクト(壷)を、3次元的に示したものである。
5A is an explanatory diagram for explaining an example in which an image processing technique is applied to a game, showing a progress screen of the game, and FIG. 5B is virtually embedded in the ground. It is a three-dimensional representation of an existing object (jar).

【図6】(a)が図5(b)におけるA面における断面
画像を、(b)がB面における断面画像を、(c)がC
面における断面画像を示す。
6A is a cross-sectional image taken along plane A in FIG. 5B, FIG. 6B is a cross-sectional image taken along plane B, and FIG.
The cross-sectional image in a surface is shown.

【図7】本発明の第1の実施の形態における画像処理技
術を説明するためのフローチャートである。
FIG. 7 is a flowchart illustrating an image processing technique according to the first embodiment of the present invention.

【図8】本発明の第2の実施の形態で用いる2次元画像
の一例を示す。
FIG. 8 shows an example of a two-dimensional image used in the second embodiment of the present invention.

【図9】本発明の第1または第2の実施形態にかかる画
像処理装置のハードウェアコンポーネントを示す構成図
である。
FIG. 9 is a configuration diagram showing hardware components of the image processing apparatus according to the first or second embodiment of the present invention.

【図10】本発明の第3の実施形態にかかる画像処理シ
ステムの構成図である。
FIG. 10 is a configuration diagram of an image processing system according to a third embodiment of the present invention.

【図11】本発明の第4の実施形態にかかる画像処理シ
ステムの構成図である。
FIG. 11 is a configuration diagram of an image processing system according to a fourth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

20・・・表示装置、22・・・入力デバイス、24・
・・入力受付部、26・・・選択部、30・・・表示処
理部、40・・・検出部、42・・・応答処理部、50
・・・記憶装置、100・・・画像処理装置
20 ... Display device, 22 ... Input device, 24 ...
..Input receiving unit, 26 ... Selecting unit, 30 ... Display processing unit, 40 ... Detecting unit, 42 ... Response processing unit, 50
... Storage device, 100 ... Image processing device

フロントページの続き Fターム(参考) 4C093 AA22 AA26 CA29 FF28 FF42 FG01 5B050 AA02 BA03 BA09 CA07 DA02 EA19 EA28 FA02 FA17 5B087 AA07 AB12 CC26 DD03 DE03 DE07 Continued front page    F term (reference) 4C093 AA22 AA26 CA29 FF28 FF42                       FG01                 5B050 AA02 BA03 BA09 CA07 DA02                       EA19 EA28 FA02 FA17                 5B087 AA07 AB12 CC26 DD03 DE03                       DE07

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 外観の画像を画面に表示させる表示処理
部と、 外観画像から仮想的な深さ方向に存在する2次元断面画
像を格納する第1格納部と、 ユーザによる操作入力を行わしめる入力デバイスと、 前記入力デバイスによる入力を受け付ける入力受付部
と、 前記入力に基づいて、断面画像を選択する選択部と、 選択された断面画像に基づいて、入力に対する応答を生
成する応答処理部とを備えることを特徴とする画像処理
装置。
1. A display processing unit for displaying an appearance image on a screen, a first storage unit for storing a two-dimensional cross-sectional image existing in a virtual depth direction from the appearance image, and a user's operation input. An input device, an input reception unit that receives an input from the input device, a selection unit that selects a cross-sectional image based on the input, and a response processing unit that generates a response to the input based on the selected cross-sectional image. An image processing apparatus comprising:
【請求項2】 前記第1格納部は、仮想的な3次元オブ
ジェクトを所定の方向にスライスした複数の断面画像を
格納することを特徴とする請求項1に記載の画像処理装
置。
2. The image processing apparatus according to claim 1, wherein the first storage unit stores a plurality of cross-sectional images obtained by slicing a virtual three-dimensional object in a predetermined direction.
【請求項3】 少なくとも一つの断面画像は、色付けを
施された関心領域を有することを特徴とする請求項1ま
たは2に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein at least one cross-sectional image has a colored region of interest.
【請求項4】 選択された断面画像において、入力によ
り指定される位置の色を検出する検出部をさらに備え、 前記応答処理部は、検出部により検出された色に基づい
て、応答を生成することを特徴とする請求項3に記載の
画像処理装置。
4. A detection unit that detects a color at a position designated by an input in the selected cross-sectional image is further provided, and the response processing unit generates a response based on the color detected by the detection unit. The image processing apparatus according to claim 3, wherein
【請求項5】 関心領域の色と、応答とを対応付けたテ
ーブルをさらに備え、 前記応答処理部は、前記テーブルに基づいて、応答を生
成することを特徴とする請求項4に記載の画像処理装
置。
5. The image according to claim 4, further comprising a table in which a color of a region of interest and a response are associated with each other, and the response processing unit generates a response based on the table. Processing equipment.
【請求項6】 前記検出部は、検出した色により、深さ
方向に仮想的に存在しているオブジェクトを検出するこ
とを特徴とする請求項4または5に記載の画像処理装
置。
6. The image processing apparatus according to claim 4, wherein the detection unit detects an object that virtually exists in the depth direction based on the detected color.
【請求項7】 前記入力受付部は、入力により与えられ
る仮想的な力の大きさを検出し、 前記選択部は、検出された力の大きさに基づいて、前記
断面画像を選択することを特徴とする請求項1から6の
いずれかに記載の画像処理装置。
7. The input receiving unit detects the magnitude of a virtual force given by the input, and the selecting unit selects the cross-sectional image based on the detected magnitude of the force. The image processing apparatus according to any one of claims 1 to 6, which is characterized in that.
【請求項8】 前記入力受付部は、入力により与えられ
る仮想的な力の大きさを検出して、外観画像に対する仮
想的な深さ情報を演算し、 前記選択部は、深さ情報に基づいて、前記断面画像を選
択することを特徴とする請求項1から6のいずれかに記
載の画像処理装置。
8. The input receiving unit detects a magnitude of a virtual force given by an input to calculate virtual depth information for an appearance image, and the selecting unit is based on the depth information. The image processing apparatus according to claim 1, wherein the cross-sectional image is selected.
【請求項9】 2次元外観画像データを格納する第2格
納部をさらに備え、 前記表示処理部は、前記2次元外観画像データを、外観
画像として画面に表示させることを特徴とする請求項1
から8のいずれかに記載の画像処理装置。
9. The second storage unit for storing two-dimensional appearance image data is further provided, and the display processing unit displays the two-dimensional appearance image data on a screen as an appearance image.
The image processing device according to any one of 1 to 8.
【請求項10】 前記第1格納部は、複数の2次元断面
画像をMPEG形式でまとめて格納し、 さらに、MPEG画像データに含まれる時間情報を、仮
想的な深さ情報に変換する変換関数またはテーブルを格
納することを特徴とする請求項1から9のいずれかに記
載の画像処理装置。
10. The conversion function for collectively storing a plurality of two-dimensional sectional images in MPEG format in the first storage unit, and further for converting time information included in MPEG image data into virtual depth information. Alternatively, the image processing apparatus according to any one of claims 1 to 9, which stores a table.
【請求項11】 人体の外観画像を画面に表示させる表
示処理部と、 少なくとも1つの内部組織を含んだ人体の複数の断面画
像を格納する格納部と、 前記外観画像に対してユーザによる操作入力を行わしめ
る入力デバイスと、 前記入力デバイスによる入力を受け付け、その入力によ
り表現される仮想的な力の大きさまたは向きを検出する
入力受付部と、 検出された力の大きさまたは向きに基づいて、断面画像
を選択する選択部と、 選択された断面画像に基づいて、入力に対する応答を生
成する応答処理部とを備えることを特徴とするバーチャ
ル手術装置。
11. A display processing unit for displaying an appearance image of a human body on a screen, a storage unit for storing a plurality of sectional images of the human body including at least one internal tissue, and a user's operation input for the appearance image. Based on the detected force magnitude or direction, and an input accepting unit that accepts an input from the input device and detects the magnitude or direction of the virtual force represented by the input. A virtual surgical apparatus, comprising: a selection unit that selects a cross-sectional image; and a response processing unit that generates a response to an input based on the selected cross-sectional image.
【請求項12】 前記断面画像は、所定の内部組織に色
付けを施した関心領域を有していることを特徴とする請
求項11に記載のバーチャル手術装置。
12. The virtual surgical apparatus according to claim 11, wherein the cross-sectional image has a region of interest in which a predetermined internal tissue is colored.
【請求項13】 選択された断面画像において、入力に
より指定される位置の色を検出する検出部をさらに備
え、 前記応答処理部は、検出部における検出結果に基づい
て、応答を生成することを特徴とする請求項12に記載
のバーチャル手術装置。
13. A detection unit for detecting a color of a position designated by an input in the selected cross-sectional image is further provided, wherein the response processing unit generates a response based on a detection result of the detection unit. The virtual surgical device according to claim 12, characterized in that
【請求項14】 前記検出部は、検出した色により、内
部組織を検出することを特徴とする請求項13に記載の
バーチャル手術装置。
14. The virtual surgical apparatus according to claim 13, wherein the detection unit detects the internal tissue based on the detected color.
【請求項15】 コンピュータに、 外観画像を画面に表示する機能と、 入力デバイスからの入力を受け付ける機能と、 前記入力に基づいて、外観画像から仮想的な深さ方向に
存在する2次元断面画像を格納した格納部より、断面画
像を選択する機能と、 選択された断面画像に基づいて、入力に対する応答を生
成する機能とを実現させるためのプログラム。
15. A function of displaying an appearance image on a screen of a computer, a function of receiving an input from an input device, and a two-dimensional cross-sectional image existing in a virtual depth direction from the appearance image based on the input. A program for realizing a function of selecting a cross-sectional image from a storage unit that stores and a function of generating a response to an input based on the selected cross-sectional image.
【請求項16】 画像配信装置と端末とを備える画像処
理システムであって、 前記画像配信装置は、 外観画像を格納する第1格納部と、 外観画像から仮想的な深さ方向に存在する2次元断面画
像を格納する第2格納部と、 前記外観画像を送信する送信部とを備え、 前記端末は、 前記外観画像を受信する受信部と、 外観画像を表示する表示装置と、 前記外観画像に対して操作入力を行わしめる入力デバイ
スと、 前記入力デバイスによる入力を受け付ける入力受付部
と、 前記入力に関する情報を送信する送信部とを備え、 前記画像配信装置は、 前記入力に関する情報に基づいて、断面画像を選択する
選択部と、 前記選択された断面画像を用いて、入力に対する応答を
生成する応答処理部とを備えることを特徴とする画像処
理システム。
16. An image processing system comprising an image distribution device and a terminal, wherein the image distribution device includes: a first storage unit for storing an appearance image; and 2 existing in a virtual depth direction from the appearance image. A second storage unit that stores a three-dimensional cross-sectional image; a transmission unit that transmits the appearance image; the terminal that receives the appearance image; a display device that displays the appearance image; An input device for performing an operation input with respect to the input device, an input reception unit that receives an input by the input device, and a transmission unit that transmits information related to the input, and the image distribution device is based on the information related to the input. An image processing system comprising: a selection unit that selects a cross-sectional image; and a response processing unit that generates a response to an input using the selected cross-sectional image.
【請求項17】 外観の画像を画面に表示させる表示処
理部と、 各ピクセルの明るさ情報が仮想の基準面からの距離に対
応付けて設定されたオブジェクトを含んだ2次元画像を
格納する格納部と、 前記外観画像に対して、ユーザによる操作入力を行わし
める入力デバイスと、 前記入力デバイスによる入力を受け付け、その入力によ
り表現される仮想的な力が加えられる位置を検出し、そ
の力の大きさまたは向きに対応する仮想的な深さ情報を
演算する入力受付部と、 前記2次元画像において、前記位置に対応するピクセル
の明るさ情報と前記深さ情報とを用いて、2次元画像中
のオブジェクトと、入力により表現される仮想的な力と
のあたり判定を行う検出部とを備えることを特徴とする
画像処理装置。
17. A display processing unit for displaying an appearance image on a screen, and a storage for storing a two-dimensional image including an object in which brightness information of each pixel is set in association with a distance from a virtual reference plane. Section, an input device for inputting an operation input by a user to the appearance image, and an input received by the input device, detecting a position to which a virtual force expressed by the input is applied, and detecting the force. An input receiving unit that calculates virtual depth information corresponding to a size or a direction; and, in the two-dimensional image, a two-dimensional image using the brightness information of the pixel corresponding to the position and the depth information. An image processing apparatus, comprising: an object inside and a detection unit that determines a contact with a virtual force represented by an input.
【請求項18】 前記2次元画像は、色付けを施された
関心領域を有することを特徴とする請求項17に記載の
画像処理装置。
18. The image processing apparatus according to claim 17, wherein the two-dimensional image has a colored region of interest.
JP2001292376A 2001-09-25 2001-09-25 Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system Pending JP2003099808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001292376A JP2003099808A (en) 2001-09-25 2001-09-25 Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001292376A JP2003099808A (en) 2001-09-25 2001-09-25 Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system

Publications (1)

Publication Number Publication Date
JP2003099808A true JP2003099808A (en) 2003-04-04

Family

ID=19114352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001292376A Pending JP2003099808A (en) 2001-09-25 2001-09-25 Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system

Country Status (1)

Country Link
JP (1) JP2003099808A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008100060A (en) * 2006-10-05 2008-05-01 Alcon Inc Surgical console operable for simulation of operation procedures
JP2008125900A (en) * 2006-11-22 2008-06-05 Ge Medical Systems Global Technology Co Llc X-ray tomograph
JP2009175777A (en) * 2008-01-21 2009-08-06 Canon Inc Information processing apparatus and method
JP2010246958A (en) * 2010-07-02 2010-11-04 Ge Medical Systems Global Technology Co Llc X-ray tomographic apparatus
JP2010277551A (en) * 2009-06-01 2010-12-09 Canon Inc Data selection device, method for controlling the same, and program
JP2013164705A (en) * 2012-02-10 2013-08-22 Sony Corp Information processing device, information processing method and program
JP2017192441A (en) * 2016-04-18 2017-10-26 匡佑 安本 In-vivo image display device, and in-vivo image display method and program
WO2018012207A1 (en) * 2016-07-12 2018-01-18 富士フイルム株式会社 Image display system, head-mounted display control device, and operating method and operating program for same
KR20190113078A (en) * 2018-03-27 2019-10-08 울산대학교 산학협력단 Apparatus and method for processing image
JP2020046893A (en) * 2018-09-19 2020-03-26 尚紀 北村 Surgery support system and virtual surgery support system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008100060A (en) * 2006-10-05 2008-05-01 Alcon Inc Surgical console operable for simulation of operation procedures
JP2008125900A (en) * 2006-11-22 2008-06-05 Ge Medical Systems Global Technology Co Llc X-ray tomograph
JP4575909B2 (en) * 2006-11-22 2010-11-04 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー X-ray tomography equipment
US7873141B2 (en) 2006-11-22 2011-01-18 Ge Medical Systems Global Technology Company, Llc X-ray tomographic imaging apparatus
JP2009175777A (en) * 2008-01-21 2009-08-06 Canon Inc Information processing apparatus and method
JP2010277551A (en) * 2009-06-01 2010-12-09 Canon Inc Data selection device, method for controlling the same, and program
JP2010246958A (en) * 2010-07-02 2010-11-04 Ge Medical Systems Global Technology Co Llc X-ray tomographic apparatus
US9671875B2 (en) 2012-02-10 2017-06-06 Sony Corporation Information processing device, information processing method and program
JP2013164705A (en) * 2012-02-10 2013-08-22 Sony Corp Information processing device, information processing method and program
US11340714B2 (en) 2012-02-10 2022-05-24 Sony Corporation Information processing device, information processing method and program
JP2017192441A (en) * 2016-04-18 2017-10-26 匡佑 安本 In-vivo image display device, and in-vivo image display method and program
WO2017183604A1 (en) * 2016-04-18 2017-10-26 株式会社Cenote In vivo image display device, in vivo image display method and program
WO2018012207A1 (en) * 2016-07-12 2018-01-18 富士フイルム株式会社 Image display system, head-mounted display control device, and operating method and operating program for same
CN109478092A (en) * 2016-07-12 2019-03-15 富士胶片株式会社 The control device and its working method and working procedure of image display system and head-mounted display
JPWO2018012207A1 (en) * 2016-07-12 2019-06-13 富士フイルム株式会社 Image display system, controller for head mounted display, and method and program for operating the same
KR20190113078A (en) * 2018-03-27 2019-10-08 울산대학교 산학협력단 Apparatus and method for processing image
KR102069774B1 (en) * 2018-03-27 2020-02-11 울산대학교 산학협력단 Apparatus and method for processing image
JP2020046893A (en) * 2018-09-19 2020-03-26 尚紀 北村 Surgery support system and virtual surgery support system

Similar Documents

Publication Publication Date Title
Huber et al. Highly immersive virtual reality laparoscopy simulation: development and future aspects
US9396669B2 (en) Surgical procedure capture, modelling, and editing interactive playback
Shenai et al. Virtual interactive presence and augmented reality (VIPAR) for remote surgical assistance
US10607420B2 (en) Methods of using an imaging apparatus in augmented reality, in medical imaging and nonmedical imaging
CA2941146C (en) Systems and methods for teaching and instructing in a virtual world including multiple views
CN110522516A (en) A kind of multi-level interactive visual method for surgical navigational
Sodnik et al. Spatial sound localization in an augmented reality environment
US20100167250A1 (en) Surgical training simulator having multiple tracking systems
KR101816172B1 (en) The simulation system for training and the method thereof
Kuppersmith et al. Building a virtual reality temporal bone dissection simulator
WO2019198061A1 (en) Guidance system, method and devices thereof
JP2003099808A (en) Image processing apparatus, virtual operation apparatus, program for causing computer to achieve image processing function, and image processing system
Shono et al. Microsurgery simulator of cerebral aneurysm clipping with interactive cerebral deformation featuring a virtual arachnoid
AU2019295737B2 (en) Methods and apparatus for efficiently rendering, managing, recording, and replaying interactive, multiuser, virtual reality experiences
CN111026269A (en) Haptic feedback method, device and equipment of biological tissue structure based on force feedback
CN112235595A (en) Operation scene dynamic presenting method, system and medium based on mixed reality technology
JP6150935B1 (en) Information processing system, information processing method, and information processing program
CN107315915A (en) A kind of simulated medical surgery method and system
CN109984911A (en) A kind of massage apparatus and its control method with virtual reality function
Stecker Using virtual reality to assess auditory performance
Hutchins et al. Communication in a networked haptic virtual environment for temporal bone surgery training
KR101339452B1 (en) Virtual arthroscope surgery simulation apparatus
Balogh et al. Multilayer image grid reconstruction technology: four-dimensional interactive image reconstruction of microsurgical neuroanatomic dissections
Baer et al. A Comparative User Study of a 2D and an Autostereoscopic 3D Display for a Tympanoplastic Surgery.
CN113889277A (en) Operation experience system based on VR technique