JP2007136133A - System for presenting augmented reality - Google Patents

System for presenting augmented reality Download PDF

Info

Publication number
JP2007136133A
JP2007136133A JP2005363993A JP2005363993A JP2007136133A JP 2007136133 A JP2007136133 A JP 2007136133A JP 2005363993 A JP2005363993 A JP 2005363993A JP 2005363993 A JP2005363993 A JP 2005363993A JP 2007136133 A JP2007136133 A JP 2007136133A
Authority
JP
Japan
Prior art keywords
image
information
target area
augmented reality
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005363993A
Other languages
Japanese (ja)
Inventor
Toshio Fukuda
敏男 福田
Fumito Arai
史人 新井
Seiichi Ikeda
誠一 池田
Villagran Carlos Rafael Tercero
ビヤグラン カルロス ラファエル テルセロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2005363993A priority Critical patent/JP2007136133A/en
Publication of JP2007136133A publication Critical patent/JP2007136133A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for presenting augmented reality which collectively presents an image obtained by imaging an objective region and the additional distribution information on the objective region. <P>SOLUTION: The image of the object region is obtained by an imaging unit by detecting (coordinates and orientations) the position (both three dimensions and two dimensions are appropriate) of the imaging unit employed for imaging the objective region and the position of a sensor unit which acquires additional information on the objective region and then by utilizing the above position information. The additional information of the objective region is obtained by the sensor unit. The image and the additional information are collectively presented as an image from the same viewpoint or from different viewpoints having a fixed relation. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は拡張現実感呈示システムに関する。  The present invention relates to an augmented reality presentation system.

技術背景Technical background

近年、医療分野、エンターテインメント分野、情報通信分野等において、拡張現実感(AR:Augumented Reality)技術が利用されている。拡張現実感技術とは、完全に仮想の空間を作り出してユーザーを没入させることを目的とする仮想現実感とは異なって、仮想空間を現実に投影あるいは対応させることによって、現実に対する知覚を情報的に拡張することを目的とする。  In recent years, augmented reality (AR) technology has been used in the medical field, entertainment field, information communication field, and the like. Augmented reality technology is different from virtual reality, which aims to create a completely virtual space and immerse the user in it. It is intended to be extended to.

この拡張現実感技術によれば、現実の風景の上にコンピューター側の映像を重ね合わせて表示し、実際には見えないものや補足的な情報などを、状況に対応させてユーザーに提示することができる。According to this augmented reality technology, the computer-side video is superimposed on the real landscape and displayed to the user in accordance with the situation, invisible or supplementary information. Can do.

こうした拡張現実感技術は、地雷探査や、魚群探知や、温度・流速計測などの他、特に、血管内手術や腹腔鏡下手術などの低侵襲医療において、手術ナビゲーションを構築する目的において有用である。  These augmented reality technologies are useful for constructing surgical navigation in landmine exploration, fish school detection, temperature / velocity measurement, and especially in minimally invasive medicine such as endovascular surgery and laparoscopic surgery. .

現在までに、X線CTやMRIや超音波撮影等の透視撮影手段により術前に予め撮影された患者個人の身体内情報をもとに、手術の対象となる骨や、臓器や、血管等の3次元像をコンピュータ内にて生成し、このように生成された情報を、透過型ディスプレイ等を使用して患者の身体上に投影する方法が提案されており、これによれば、術者に、体表の向こう側にある身体内構造を認識させることが可能である。  To date, bones, organs, blood vessels, etc. to be operated on the basis of in-body information of individual patients previously taken before surgery by fluoroscopic imaging means such as X-ray CT, MRI and ultrasonic imaging A method has been proposed in which a three-dimensional image is generated in a computer and the information thus generated is projected onto the patient's body using a transmission display or the like. It is possible to make the body structure on the other side of the body surface recognized.

具体例としては、腹腔鏡下手術を対象とした腹部臓器(或いは腹部臓器内部の病変領域)の投影や、椎骨のスクリュー固定術を対象とした椎骨形状の投影、バイオプシーを対象とした目的領域の投影などが挙げられる。また情報投影には透過型ディスプレイの他に、ヘッドマウント型ディスプレイも利用でき、この場合にはヘッドマウント型ディスプレイを装着した術者の頭の動きを位置センサにより取得して、情報投影が施された術野の映像を頭の動きに追尾させることなども可能である。無論、通常のディスプレイを使用することも可能である。  Specific examples include projections of abdominal organs (or lesion areas inside abdominal organs) for laparoscopic surgery, vertebral shape projections for vertebral screw fixation, and target areas for biopsy. For example, projection. In addition to the transmissive display, a head-mounted display can be used for information projection. In this case, the movement of the head of the surgeon wearing the head-mounted display is acquired by a position sensor, and information projection is performed. It is also possible to track the image of the operative field with the movement of the head. Of course, it is also possible to use a normal display.

しかしながら、これらの方法では、あくまでCTやMRIや超音波撮影等の透視撮影により術前に用意された情報が使用されるために、例えば術中に、手術の進行に伴って情報投影領域の形態が変動した場合などには、投影像と実際の状態が異なってしまい、それ以降の手術ナビゲーションが成立しなくなってしまう問題がある。  However, in these methods, information prepared before the operation by fluoroscopic imaging such as CT, MRI, and ultrasonic imaging is used, so that the information projection area has a form as the operation progresses, for example, during the operation. When it fluctuates, there is a problem that the actual state is different from the projected image, and subsequent surgical navigation is not established.

この問題を回避するために、術中に再度透視撮影を実行し、情報を更新し直すことも可能であるが、この場合には、撮影像と患者身体との相対位置関係を再度設定し直すことが通常容易でなく、その都度時間と労力を要し、手術の進行を妨げる恐れがある。  In order to avoid this problem, it is possible to perform fluoroscopy again during the operation and update the information again, but in this case, the relative positional relationship between the imaged image and the patient's body must be set again. Is usually not easy, requires time and effort each time, and may hinder the progress of surgery.

このため、術野の像(対象領域の像)と、身体の透視像(対象領域の空間情報)を併せて呈示することにより得られる拡張現実感像を速やかに生成し、作業を容易化、効率化することが望まれる。  For this reason, it quickly generates an augmented reality image obtained by presenting the operative field image (target region image) and the body perspective image (spatial information of the target region) together, facilitating the work, It is desirable to improve efficiency.

発明の目的Object of the invention

本発明は、上記課題に鑑見てなされたものであり、その目的は、このため、対象領域の像と、対象領域の空間情報を併せて呈示することにより得られる拡張現実感像を速やかに生成し、作業を容易化、効率化することにある。  The present invention has been made in view of the above problems, and the purpose thereof is to promptly display an augmented reality image obtained by presenting the image of the target region and the spatial information of the target region together. It is to make the work easier and more efficient.

課題を解決するための手段Means for solving the problem

上記の目的を達成するため、請求項1の発明では、対象領域について得ることのできる付加的な分布情報(内部透視像、速度分布、加速度分布、光学的分布、化学的分布、温度分布、濃度分布など)を、当該対象領域の像と併せて呈示する拡張現実感呈示システムであって、対象領域の撮像する撮像部と、対象領域の付加的な情報を取得するセンサ部と、当該撮像部および当該センサ部の位置を検出する位置検出部と、当該対象領域の像を呈示するための表示部と、を備え、位置検出部により得られた当該撮像部と当該センサ部の位置情報を利用することで、前記撮像部により得られた対象領域の像と、前記センサ部により得られた対象領域の付加的な情報を、同じ視点、あるいは一定の関係を有する異なった視点からの像として前記表示部に呈示すること、を特徴とする。  In order to achieve the above object, according to the first aspect of the present invention, additional distribution information (internal perspective image, velocity distribution, acceleration distribution, optical distribution, chemical distribution, temperature distribution, concentration) that can be obtained for the target region. An augmented reality presentation system that presents an image of the target area together with an image of the target area, an imaging unit that images the target area, a sensor unit that acquires additional information of the target area, and the imaging unit And a position detection unit for detecting the position of the sensor unit, and a display unit for presenting an image of the target region, and using the position information of the imaging unit and the sensor unit obtained by the position detection unit Thus, the image of the target area obtained by the imaging unit and the additional information of the target area obtained by the sensor unit can be used as an image from the same viewpoint or from different viewpoints having a certain relationship. Display section Presentation to be, characterized by.

また、請求項2の発明では、請求項1記載の拡張現実感呈示システムにおいて、前記表示部は、前記撮像部により得られた対象領域の像と、前記センサ部により得られた対象領域の付加的な分布情報を、同じ視点からの像として、オーバーレイ呈示することを特徴とすること、を特徴とする。  According to a second aspect of the present invention, in the augmented reality presentation system according to the first aspect, the display unit adds an image of a target region obtained by the imaging unit and a target region obtained by the sensor unit. Characteristic distribution information is displayed as an overlay image as an image from the same viewpoint.

また、請求項3の発明では、請求項1記載の拡張現実感呈示システムにおいて、前記表示部は、前記撮像部により得られた対象領域の像と、前記センサ部により得られた対象領域の付加的な分布情報を、同じ視点、あるいは一定の関係を有する異なった視点からの像としてリアルタイム呈示することを特徴とすること、を特徴とする。  According to a third aspect of the present invention, in the augmented reality presentation system according to the first aspect, the display unit adds an image of a target area obtained by the imaging unit and a target area obtained by the sensor unit. Characteristic distribution information is presented in real time as images from the same viewpoint or from different viewpoints having a certain relationship.

また、請求項4の発明では、請求項1から請求項3のいずれかに記載の拡張現実感呈示システムにおいて、前記センサ部は、透視撮影用センサ(例えば、超音波センサやX線センサ)であることを特徴とする。  According to a fourth aspect of the present invention, in the augmented reality presentation system according to any one of the first to third aspects, the sensor unit is a fluoroscopic sensor (for example, an ultrasonic sensor or an X-ray sensor). It is characterized by being.

また、請求項5の発明では、請求項4記載の拡張現実感呈示システムにおいて、前記撮像部は腹腔鏡であることを特徴とする。  According to a fifth aspect of the present invention, in the augmented reality presentation system according to the fourth aspect, the imaging unit is a laparoscope.

請求項6から請求項8の発明は、このような拡張現実感呈示システムを実現するためのソフトウェアの利点を有している。  The inventions according to claims 6 to 8 have the advantage of software for realizing such an augmented reality presentation system.

また、請求項6の発明では、対象領域について得ることのできる付加的な分布情報(内部透視像、速度分布、加速度分布、光学的分布、化学的分布、温度分布、濃度分布など)を、当該対象領域の像と併せて呈示する拡張現実感呈示のためのソフトウェアであって、対象領域について撮像された像と、対象領域について得られた任意の付加的な情報と、当該像および当該情報の位置情報(座標情報、およびオリエンテーション情報)から、前記対象領域の付加的な情報を、前記像に、同じ視点、あるいは一定の関係を有する異なった視点からの像として併せて呈示する拡張現実感呈示像を生成すること、を特徴とする。  In the invention of claim 6, additional distribution information (internal perspective image, velocity distribution, acceleration distribution, optical distribution, chemical distribution, temperature distribution, concentration distribution, etc.) that can be obtained for the target region is A software for presenting augmented reality that is presented together with an image of the target area, the image captured for the target area, any additional information obtained for the target area, the image and the information Augmented reality presentation that presents additional information of the target area from the position information (coordinate information and orientation information) together with the image as an image from the same viewpoint or from different viewpoints having a certain relationship Generating an image.

また、請求項7の発明では、請求項6記載の拡張現実感呈示のためのソフトウェアであって、前記拡張現実感呈示像は、前記対象領域の付加的な情報を、前記像に、同じ視点からの像として、オーバーレイ呈示することを特徴とすること、を特徴とする。  According to a seventh aspect of the invention, there is provided the augmented reality presentation software according to the sixth aspect, wherein the augmented reality presentation image has additional information on the target area as the same viewpoint as the image. It is characterized by presenting an overlay as an image from.

また、請求項8の発明では、請求項6記載の拡張現実感呈示のためのソフトウェアであって、前記拡張現実感呈示像は、前記対象領域の付加的な情報を、前記像に、同じ視点、あるいは一定の関係を有する異なった視点からの像としてリアルタイム呈示すること、を特徴とする。  The invention according to claim 8 is the software for presenting augmented reality according to claim 6, wherein the augmented reality presentation image is obtained by adding additional information on the target area to the image in the same viewpoint. Or real-time presentation as images from different viewpoints having a certain relationship.

発明の効果The invention's effect

このように構成された請求項1記載の拡張現実感システムによれば、対象領域の撮像を行う撮像部と、対象領域の付加情報を取得するセンサ部の双方の位置を、位置検出のための位置検出部により特定できるので、これらの情報をコンピュータに取り込み処理することで、前記撮像部により得られた対象領域の像と、前記センサ部により得られた対象領域の付加情報を、同じ視点からの情報として、あるいは一定の関係を持たせた異なった視点からの情報として呈示することが可能である。  According to the augmented reality system according to claim 1 configured as described above, the positions of both the imaging unit that performs imaging of the target region and the sensor unit that acquires additional information of the target region are used for position detection. Since it can be specified by the position detection unit, the information of the target region obtained by the imaging unit and the additional information of the target region obtained by the sensor unit can be obtained from the same viewpoint by capturing and processing these pieces of information into a computer. It is possible to present it as information from different viewpoints having a certain relationship.

また、請求項2記載の拡張現実感システムによれば、前記対象領域の像と、前記対象領域の付加情報が、同じ視点からの情報として、オーバーレイ表示されるので、両者の位置関係をより容易に認識することが可能である。  According to the augmented reality system of claim 2, the image of the target area and the additional information of the target area are displayed as information from the same viewpoint, so that the positional relationship between the two is easier. Can be recognized.

また、請求項3記載の拡張現実感システムによれば、前記対象領域の像と、前記対象領域の付加情報が、リアルタイムにて更新されて呈示されるので、常に最新の情報を得ることが可能である。  According to the augmented reality system according to claim 3, the image of the target area and the additional information of the target area are updated and presented in real time, so that the latest information can always be obtained. It is.

また、請求項4記載の拡張現実感システムによれば、前記センサ部に透視撮影用センサを用いることで、前記対象領域の像と、前記対象領域内部の像を併せて呈示することができ、対象領域の外観とその内部状態を併せて知ることが可能である。  Further, according to the augmented reality system according to claim 4, by using a fluoroscopic sensor for the sensor unit, the image of the target area and the image inside the target area can be presented together. It is possible to know both the appearance of the target area and its internal state.

また、請求項5記載の拡張現実感システムによれば、前記撮像部に腹腔鏡を用いることで、腹腔鏡下手術を対象とした手術ナビゲーションシステムを構築することが可能である。  According to the augmented reality system of claim 5, it is possible to construct a surgical navigation system for laparoscopic surgery by using a laparoscope for the imaging unit.

また、請求項6記載の拡張現実感システムのためのソフトウェアによれば、対象領域について撮影された像と、対象領域について得られた付加情報と、これらの像および付加情報の位置情報(座標情報、およびオリエンテーション情報)から、前記対象領域の像に、前記付加情報を、同じ視点からの情報、あるいは一定の関係を持たせた異なった視点からの情報として併せて呈示した拡張現実感呈示像を生成することが可能である。  According to the software for an augmented reality system according to claim 6, an image photographed about the target area, additional information obtained about the target area, and position information (coordinate information) of these images and additional information , And orientation information), an augmented reality presentation image that presents the additional information as information from the same viewpoint or information from different viewpoints having a certain relationship to the image of the target area. It is possible to generate.

また、請求項7記載の拡張現実感システムのためのソフトウェアによれば、前記対象領域の像と、前記対象領域の付加情報を、同じ視点からの情報として、オーバーレイ呈示できる、両者の位置関係をより容易に認識することが可能である。  According to the software for the augmented reality system according to claim 7, the image of the target area and the additional information of the target area can be presented as an overlay as information from the same viewpoint. It is possible to recognize more easily.

また、請求項8記載の拡張現実感システムのためのソフトウェアによれば、前記対象領域の像と、前記対象領域の付加情報を、リアルタイムにて更新できるので、常に最新の情報を呈示することが可能である。  According to the software for an augmented reality system according to claim 8, the image of the target area and the additional information of the target area can be updated in real time, so that the latest information can always be presented. Is possible.

(構成要素)
以下、この発明を構成する各要素について詳細に説明する。
本発明は、対象領域の像を撮像する撮像部と、対象領域の付加的情報を取得するセンサ部と、当該撮影部および当該センサ部のそれぞれの位置を特定するための位置検出部と、最終的に生成された拡張現実感像を呈示するための提示部によって構成される。ここで、該撮影部と該センサ部は、それぞれ独立した構造体をなすことを前提とするが、可能な場合には両者を一体化した構造体とすることも可能である
(Component)
Hereafter, each element which comprises this invention is demonstrated in detail.
The present invention includes an imaging unit that captures an image of a target region, a sensor unit that acquires additional information of the target region, a position detection unit for specifying the positions of the imaging unit and the sensor unit, It is comprised by the presentation part for presenting the augmented reality image produced | generated automatically. Here, it is assumed that the imaging unit and the sensor unit are independent structures, but if possible, the imaging unit and the sensor unit can be integrated into a structure.

ここで対象領域とは、空間的な広がりを持つ一定の領域を指し示し、そこに含まれる固体、液体、気体をこの対象領域の構成要素と見なす。対象領域としては、例えば、手術の対象となる人体の特定領域や、地雷探査の対象となる地表の特定領域や、温度計測や流速計測の対象となる液体や気体の流れの中の特定領域や、天体観測の対象となる空中の特定領域などが挙げられ、およそこの自然界に存在するすべての領域を、ここで用いる対象領域の候補とすることができる。  Here, the target area refers to a certain area having a spatial extent, and solids, liquids, and gases contained therein are regarded as components of the target area. Examples of the target area include a specific area of the human body to be operated on, a specific area of the ground surface that is the target of landmine exploration, a specific area in the flow of liquid or gas that is the target of temperature measurement or flow velocity measurement, Specific areas in the air that are the targets of astronomical observation can be mentioned, and all the areas existing in the natural world can be candidates for the target area used here.

前記撮像部は、このような対象領域の像を撮像する1構成要素であって、以下に詳述する撮像機能を備えた構造体を意味する。ここで撮像とは、対象領域の空間的(1次元、2次元、3次元いずれも含む)な状態を得ることであって、例えば、対象領域より発せられる可視波長の光を捉えて、人間の眼により観察されるのと同様な像を得ても良いし、対象領域より発せられる不可視領域の光(赤外線等)を捉えて、人間の眼によっては観察されない透視像や温度分布像などの特殊な像を得ても良いし、X線等の照射により透視像を得ても良いし、或いは、核磁気共鳴法(MR:Magnetic Resonance)や超音波撮影法等の物理現象を利用した方法により像を得ても良い。このように当該撮影部は、目的とする像を得ることのできる手段を備える構造体であることを特徴とする。
尚、当該像は、画像、映像を含む情報全般を指し示す。尚、該撮像部は、電子計算機に接続して像情報の処理が可能な構成とすることが好ましいが、同等な機能を実現する変換器等に接続してこれを代替することや、ビデオミキサー等に接続して簡略的に拡張現実感像の生成を行うこともできる。
The imaging unit is a component that captures an image of such a target area, and means a structure having an imaging function described in detail below. Here, imaging means obtaining a spatial state (including one-dimensional, two-dimensional, and three-dimensional) of the target region. For example, it captures light having a visible wavelength emitted from the target region, Images similar to those observed by the eye may be obtained, or special invisible images such as fluoroscopic images and temperature distribution images that are not observed by the human eye by capturing invisible light (such as infrared rays) emitted from the target area A transparent image may be obtained by irradiation with X-rays or the like, or by a method using a physical phenomenon such as a nuclear magnetic resonance (MR) method or an ultrasonic imaging method. An image may be obtained. As described above, the photographing unit is a structure including a unit capable of obtaining a target image.
The image indicates general information including images and videos. The imaging unit is preferably configured to be connected to an electronic computer so that image information can be processed. However, the imaging unit may be connected to a converter or the like that realizes an equivalent function to replace this, or a video mixer. It is also possible to simply generate an augmented reality image by connecting to the above.

一方、前記センサ部は、上記の対象領域に含まれる空間内(1次元、2次元、3次元のいずれも含む)の情報を取得する1構成要素であって、以下に詳述する空間情報の取得機能を備えた構造体を意味する。ここで空間内の情報とは、一般にスカラー場やベクトル場と称される空間的な分布を有する物理量に関する情報である。具体的な例としては、温度分布や、濃度分布、密度分布、強度分布、速度分布、加速度分布、光学的分布、化学的分布などが挙げられる他、超音波撮影における超音波の反射分布や、、MRI撮影における核磁気共鳴分布や、X線撮影におけるX線透過率の分布なども含まれ、よってこれらの反射分布、核磁気共鳴分布、X線透過率分布等から復元される物質内部の空間情報(断層透視情報や内部透視情報など)も、上記の「空間内の情報」に含まれる。
尚、該センサ部は、電子計算機に接続して情報の処理が可能な構成とすることが好ましいが、同等な機能を実現する変換器等に接続してこれを代替することや、場合によっては、ビデオミキサー等に接続して簡略的に拡張現実感像の生成を行うことも可能である。
On the other hand, the sensor unit is one component that obtains information in the space (including both one-dimensional, two-dimensional, and three-dimensional) included in the target region, and includes the spatial information described in detail below. It means a structure with an acquisition function. Here, the information in space is information relating to a physical quantity having a spatial distribution generally called a scalar field or a vector field. Specific examples include temperature distribution, concentration distribution, density distribution, intensity distribution, velocity distribution, acceleration distribution, optical distribution, chemical distribution, etc., and ultrasound reflection distribution in ultrasonic imaging, In addition, the nuclear magnetic resonance distribution in MRI imaging and the distribution of X-ray transmittance in X-ray imaging are included, and thus the space inside the substance restored from these reflection distribution, nuclear magnetic resonance distribution, X-ray transmittance distribution, etc. Information (such as tomographic information and internal fluoroscopy information) is also included in the “information in space”.
The sensor unit is preferably configured to be able to process information by connecting to an electronic computer. However, it may be replaced with a converter or the like that realizes an equivalent function, or in some cases. It is also possible to simply generate an augmented reality image by connecting to a video mixer or the like.

また、前記位置検出部は、前記撮像部および前記センサ部それぞれの空間中における位置(座標およびオリエンテーション)を取得する。さらに具体的には、当該位置検出部は、「撮像部によって撮像される像」、および「センサ部によって取得される空間的な情報」の空間中における位置(座標およびオリエンテーション)を特定することのできる、拡張現実感呈示システムの1構成要素であって、位置検出が可能な限りにおいて、任意の構成を採ることができる。位置検出部として、例えば、磁気や光検出に基づく位置特定のためのセンサ(マーカー)を、前記撮像部や前記センサ部に設置しても良いし、可変構造を有する機械的なリンク機構を撮像部やセンサ部に接続し、リンク機構の形状状態から位置検出を行っても良いし、或いは撮像部やセンサ部には一切余分な物(機構等)を付与せず、外部環境に設置されたカメラ等により位置検出を行っても良いし、撮像部やセンサ部に特定のマーカーを設置し、そのマーカーの位置を外部環境から検出することによって位置検出を行っても良いし、或いは外部環境に設置されたCTやMRI等の装置によって位置検出を行っても良い。尚、撮像部の位置検出と、センサ部の位置検出にはそれぞれことなった方法を適用することができ、上記の例の他、手術の位置検出手法を組み合わせることによって、それぞれの構成部分の位置検出を行うことができる。
尚、該位置検出部は、電子計算機に接続して、後述する視点変換のための情報処理が可能な構成とすることが好ましいが、同等な機能を実現する変換器等に接続して、これを代替することも可能である。
In addition, the position detection unit acquires positions (coordinates and orientation) in the space of the imaging unit and the sensor unit. More specifically, the position detection unit specifies the position (coordinates and orientation) in the space of the “image captured by the imaging unit” and the “spatial information acquired by the sensor unit”. It is one component of the augmented reality presentation system that can be used, and can adopt any configuration as long as position detection is possible. As the position detection unit, for example, a sensor (marker) for position specification based on magnetism or light detection may be installed in the imaging unit or the sensor unit, or a mechanical link mechanism having a variable structure is imaged. It is possible to detect the position from the shape of the link mechanism by connecting to the sensor part or sensor part, or to install the external part without adding any extra objects (mechanism etc.) to the imaging part or sensor part. Position detection may be performed by a camera or the like, a specific marker may be installed in the imaging unit or sensor unit, and position detection may be performed by detecting the position of the marker from the external environment. The position may be detected by an installed apparatus such as CT or MRI. Different methods can be applied to the position detection of the imaging unit and the position detection of the sensor unit, and in addition to the above example, the position of each component can be determined by combining surgical position detection methods. Detection can be performed.
The position detection unit is preferably connected to an electronic computer so that information processing for viewpoint conversion described later can be performed. However, the position detection unit is connected to a converter or the like that realizes an equivalent function. It is also possible to substitute.

(拡張現実感像の生成方法、ソフトウェアの処理内容)
位置検出部により取得される、撮像部とセンサ部のそれぞれの位置情報を基に、「撮像部により撮像された対象領域の像」、および「センサ部により取得された対象領域の空間内情報」のそれぞれに対して、空間中における位置(座標およびオリエンテーション)を対応づけ、当該「空間中における位置」情報をもとに、前記「撮像部により撮像された対象領域の像」、あるいは前記「センサ部により取得された対象領域の空間内情報」、あるいはその両方を、特定の視点からの像に変換した後に、前記「撮像部により撮像された対象領域の像」と、前記「センサ部により取得された対象領域の空間内情報」を、同じ視点からの像として、あるいは一定の関係を有する異なった視点からの像として併せて呈示するか、あるいは重ね合わせて呈示(オーバーレイ呈示を含む)することによって拡張現実感像を生成することができる。ここで一般に、前記位置情報は、撮像部あるいはセンサ部を構成する構造体上(内)の特定点について与えられるため、当該特定点の位置情報と、当該構造体の形状情報(該構造体上(内)における特定点の位置情報を含む)と、撮像あるいは空間情報取得を実現する情報取得点の位置情報をもとに、電子計算機、あるいはそれに相当する機能を備える変換器等により演算処理を実行することによって、前記「撮像部により撮像された対象領域の像」、あるいは前記「センサ部により取得された対象領域の空間内情報」の位置(座標およびオリエンテーション)に関する情報を得ることができる。
尚、拡張現実感像の生成は、強調現実感が実現される範囲内において、電子計算機(或いは相当する変換器等)等により、視点変換後の各像(撮像部により撮像された対象領域の像と、センサ部により取得された対象領域の空間情報像)を融合することによって生成しても良いし、一つの表示装置にそれぞれの像の信号を入力しミキシングすることによって生成しても良いし、一定の場所にそれぞれの像を投影することによって生成しても良いし、2つ以上の表示装置にそれぞれ個別に呈示しても良い。
(Augmented reality image generation method, software processing)
Based on the respective position information of the imaging unit and the sensor unit acquired by the position detection unit, “the image of the target region captured by the imaging unit” and “in-space information of the target region acquired by the sensor unit” Is associated with a position (coordinates and orientation) in the space, and based on the “position in the space” information, the “image of the target region imaged by the imaging unit” or the “sensor After converting the in-space information of the target area acquired by the imaging unit or both into an image from a specific viewpoint, the "image of the target area captured by the imaging unit" and the "acquired by the sensor unit" Presented in-spatial information of the target area ”as an image from the same viewpoint, or as an image from different viewpoints having a certain relationship, or superimposed. (Including overlay presentation) can generate augmented reality images by. In general, since the position information is given for a specific point on (inside) the structure constituting the imaging unit or sensor unit, the position information of the specific point and the shape information of the structure (on the structure) (Including the position information of the specific point in (inside)) and the position information of the information acquisition point that realizes imaging or spatial information acquisition, and an arithmetic process is performed by an electronic computer or a converter having a function corresponding thereto. By executing, it is possible to obtain information regarding the position (coordinates and orientation) of the “image of the target region imaged by the imaging unit” or the “in-space information of the target region acquired by the sensor unit”.
Note that the augmented reality image is generated within the range in which the enhanced reality is realized by the computer (or the corresponding converter, etc.) and the like after each viewpoint conversion (of the target area imaged by the imaging unit). The image may be generated by fusing the image and the spatial information image of the target area acquired by the sensor unit, or may be generated by inputting and mixing the signals of the respective images to one display device. Then, it may be generated by projecting each image on a certain place, or may be individually presented on two or more display devices.

尚、検出された位置情報に基づく像の視点の変換に関しては、「撮像部により撮像された対象領域の像」の視点情報を位置検出部より得て、当該視点情報をもとに、「センサ部により取得された対象領域の空間内情報」を、前記像と同じ視点からの像に変換し、他方「撮像部により撮像された対象領域の像」については視点変換を行うことなく、両者をオーバーレイ表示することが好ましい。これによって得られた拡張現実感像は、一般にユーザが拡張現実感を得ることが容易である。特に撮像部が固定点カメラである場合には、当該カメラの撮像特性(画角やレンズ歪み特性等)を、「センサ部により取得された対象領域の空間内情報」の視点変換に適用することで、同一視点の像を生成することが好ましい。  Regarding the conversion of the viewpoint of the image based on the detected position information, the viewpoint information of “the image of the target area imaged by the imaging unit” is obtained from the position detection unit, and based on the viewpoint information, the “sensor The information in the space of the target area acquired by the imaging unit is converted into an image from the same viewpoint as the image, while the “image of the target area imaged by the imaging unit” is converted without performing viewpoint conversion. An overlay display is preferable. The augmented reality image obtained in this way is generally easy for the user to obtain augmented reality. In particular, when the imaging unit is a fixed-point camera, the imaging characteristics (view angle, lens distortion characteristics, etc.) of the camera are applied to viewpoint conversion of “in-space information of the target area acquired by the sensor unit” Thus, it is preferable to generate images of the same viewpoint.

ここで視点変換とは、対象領域について得られた前記像、或いは前記空間内情報を、対象領域内外の任意の位置からの観察像に変換し直す処理であって、電子計算機内に備えられたソフトウェアによって当該処理を実行することが好ましい。変換後の像としては、目的や得られる情報の種類に応じて、空間的な像(3次元情報を有する像)や、平面(曲面)的な像(2次元情報を有する像)や、直線(曲線)的な像(1次元情報を有する像)や、これらの混合による像を生成することができる。また上記の空間的な像としては、平行投影像や中心投影像や立体投影像(斜視像、鳥瞰像、俯瞰像など)、目的に応じた任意の形態の像を採ることができる。ただし通常は、前記像と、前記空間内情報を同一視点からの同一投影法による像に統一し直し、並列表示やオーバーレイ表示によって両者を併せて呈示することが好ましい。
尚、視点変換後において、前記像のすべての範囲について、前記の空間内情報が存在する必要はなく、当該空間内情報は、当該像の一部分のみについて呈示されても良い。逆に空間内情報の像のすべての範囲について前記像が得られる必要はなく、当該像の一部分が表示されてもよい。また一方が空間的な像であって、他方がその一部をカバーする平面(曲面)的な像や直線(曲線)的な像であっても良いなど、像の空間的次元に関しては、その他任意の組み合わせが可能である。
Here, the viewpoint conversion is a process of converting the image obtained for the target area or the information in the space into an observation image from an arbitrary position inside or outside the target area, and is provided in the electronic computer. It is preferable to execute the processing by software. As an image after conversion, a spatial image (image having three-dimensional information), a plane (curved surface) image (image having two-dimensional information), a straight line, or the like, depending on the purpose and the type of information to be obtained. A (curve) -like image (an image having one-dimensional information) or an image obtained by mixing these images can be generated. In addition, as the spatial image, a parallel projection image, a center projection image, a stereoscopic projection image (perspective image, bird's-eye view image, bird's-eye view image, etc.), or an image in any form according to the purpose can be taken. However, it is usually preferable to unify the image and the information in the space into an image by the same projection method from the same viewpoint, and present both together by parallel display or overlay display.
It should be noted that after the viewpoint conversion, the in-space information does not have to exist for the entire range of the image, and the in-space information may be presented only for a part of the image. Conversely, the image need not be obtained for the entire range of the information image in space, and a part of the image may be displayed. Also, regarding the spatial dimension of the image, one may be a spatial image and the other may be a flat (curved) image or a straight (curved) image covering a part of the image. Any combination is possible.

センサ部は、一点に固定設置される必要はなく、任意に移動(平行移動や回転移動やその組み合わせ)することによって、対象領域の広範囲に渡って空間的な情報を収集することが可能である。これによって移動経路に沿った広範囲の情報を取得でき、拡張現実感像の生成に際して、より多くの情報を与えることが可能になる。具体的な例としては、一点上温度を計測可能な温度センサを移動させることにより移動経路に沿った線上の温度分布情報を得ることもできるし、直線上の模様を取得可能な画像センサ(スキャナー)を移動させることで移動経路に沿った面上の模様情報を得ることもできるし、断面透視像を取得可能な超音波センサを移動させることによって移動経路に沿った3次元情報を得ることもできるし、3次元形状を取得可能な3次元形状スキャナを移動させることによって移動経路に沿った3次元情報を得ることなどが可能である。尚、このことは撮像部についても同様であり、撮像部を移動させることによって広範囲の像を得ることができる。  The sensor unit does not need to be fixedly installed at a single point, and it is possible to collect spatial information over a wide range of the target region by arbitrarily moving (parallel movement, rotational movement, or a combination thereof). . This makes it possible to acquire a wide range of information along the movement path, and to give more information when generating an augmented reality image. As a specific example, it is possible to obtain temperature distribution information on a line along the movement path by moving a temperature sensor that can measure the temperature on one point, or an image sensor (scanner that can acquire a pattern on a straight line). ) Can be obtained to obtain pattern information on the surface along the movement path, or three-dimensional information along the movement path can be obtained by moving an ultrasonic sensor capable of obtaining a cross-sectional perspective image. In addition, it is possible to obtain three-dimensional information along the movement path by moving a three-dimensional shape scanner capable of acquiring a three-dimensional shape. This also applies to the imaging unit, and a wide range of images can be obtained by moving the imaging unit.

またセンサ部により得られた空間情報中より、特定の情報を抽出して、その情報のみを呈示することも可能である。具体的な例としては、超音波センサ(センサ部の例)により得られた身体内部の断層情報から特に血管領域のみを抽出し、視点変換を行った後に、撮像装置により得られた像に重ねあわせることによって、拡張現実感像を生成することや、温度センサ(センサ部の例)により得られた液体内部の温度分布を取得し、特に一定の温度範囲内にある領域のみを抽出し、視点変換を行った後に、撮像装置により得られた像に重ねあわせることによって、拡張現実感像を生成することなどが可能である。尚、このことは撮像部についても同様であり、撮像部によりえら得た像の一部を抽出して拡張現実感像の生成に利用することが可能である。尚、このような特定領域の抽出は、拡張現実感像を生成するために使用される電子計算機(より詳しくは、当該電子計算機が備えるソフトウェア)によって処理することができる。  It is also possible to extract specific information from the spatial information obtained by the sensor unit and present only that information. As a specific example, after extracting only the blood vessel region from the tomographic information inside the body obtained by the ultrasonic sensor (example of sensor unit) and performing viewpoint conversion, it is superimposed on the image obtained by the imaging device. By combining them, you can generate an augmented reality image, acquire the temperature distribution inside the liquid obtained by the temperature sensor (example of sensor unit), and extract only the region within a certain temperature range, After the conversion, an augmented reality image can be generated by superimposing the image obtained by the imaging device. This also applies to the imaging unit, and a part of the image obtained by the imaging unit can be extracted and used to generate an augmented reality image. Such extraction of the specific area can be processed by an electronic computer (more specifically, software included in the electronic computer) used to generate an augmented reality image.

(拡張現実像の呈示方法)
上記のように得られた拡張現実感像は、ディスプレイ装置(ブラウン管、液晶、プラズマ等)、プロジェクタ装置、立体投影装置、プリンタ装置、描画装置、形状変化による像呈示装置などの任意の像呈示装置に呈示できる他、ポータブルディスプレイやヘッドマウントディスプレイ等によってユーザーが身につけることなども可能である。また透過型ディスプレイを用いて、ディスプレイの向こう側に存在する実際の物の像情報をさらに付与することも可能である。
(Presentation method of augmented reality image)
The augmented reality image obtained as described above is an arbitrary image presenting device such as a display device (CRT, liquid crystal, plasma, etc.), a projector device, a stereoscopic projection device, a printer device, a drawing device, or an image presenting device based on a shape change. In addition to being presented to the user, it can also be worn by the user with a portable display, a head-mounted display, or the like. It is also possible to further give image information of actual objects existing on the other side of the display using a transmissive display.

また拡張現実感像の生成に際しては、撮像部により得られた像と、センサ部によりえら得た空間情報を、オーバーレイ表示しても良いし、並列して表示しても良いし、任意の表示様式が採用できるが、ユーザーがこれら2つの情報の相対関係を容易に把握でき、拡張現実感が得られるようにする必要がある。この観点においては、前述のオーバーレイ表示が特に好ましい。尚、拡張現実感像の呈示には、一つの表示装置を使用しても良いし、複数の表示装置を使用しても良い。When generating an augmented reality image, the image obtained by the imaging unit and the spatial information obtained by the sensor unit may be displayed in an overlay manner, displayed in parallel, or displayed arbitrarily. Although the style can be adopted, it is necessary for the user to easily grasp the relative relationship between these two pieces of information and to obtain augmented reality. In this respect, the above-described overlay display is particularly preferable. Note that a single display device or a plurality of display devices may be used to present the augmented reality image.

(第1実施例)
本発明を、腹腔鏡下手術の術中撮影に適用し、手術映像の範囲内に含まれる血管領域を拡張現実感呈示するシステムを構築した。以下、実施例の詳細について記述する。
(First embodiment)
The present invention is applied to intraoperative imaging of laparoscopic surgery, and a system for presenting augmented reality to a blood vessel region included in the range of a surgical image is constructed. Details of the embodiment will be described below.

(第1実施例の目的)
主として腹部臓器(腎臓、肝臓、膀胱、胃、およびそれに付随する血管等)の治療を目的として行われる腹腔鏡下手術において、手術映像の範囲内に含まれる血管領域を拡張現実感呈示することによって、医療器具の不適切な操作や、腹腔鏡により得られる術中映像の誤認識に起因する血管の損傷を回避することを目的とする。
(Purpose of the first embodiment)
In laparoscopic surgery performed mainly for the treatment of abdominal organs (kidney, liver, bladder, stomach, and accompanying blood vessels, etc.) An object is to avoid damage to blood vessels caused by inappropriate operation of medical instruments and erroneous recognition of intraoperative images obtained by a laparoscope.

具体的には、超音波センサ(前記センサ部に相当)によって身体内部の3次元情報を取得し、当該3次元情報を基に血管領域の3次元像を復元した後に、該血管領域の3次元像を、腹腔鏡(前記撮像部に相当)により得られる手術映像に、同一視点からの像(映像)としてオーバーレイ表示することによって、血管領域の拡張現実感呈示を行うことで、術者が血管の位置を性格に把握することのできる環境の構築を目的とする。ここで、前記超音波センサと、前記腹腔鏡には、それぞれ、リアルタイムでの位置検出が可能な磁気センサ(前記位置検出部に相当)を付与し、該磁気センサにより得られる位置情報を基に、同一視点からの像の生成を実現する。  Specifically, three-dimensional information inside the body is acquired by an ultrasonic sensor (corresponding to the sensor unit), a three-dimensional image of the blood vessel region is restored based on the three-dimensional information, and then the three-dimensional information of the blood vessel region is obtained. By displaying an image as an image (video) from the same viewpoint on an operation video obtained by a laparoscope (corresponding to the imaging unit), an augmented reality presentation of the blood vessel region is performed, so that the operator can The purpose is to create an environment where the position of the person can be understood. Here, each of the ultrasonic sensor and the laparoscope is provided with a magnetic sensor capable of detecting a position in real time (corresponding to the position detector), and based on position information obtained by the magnetic sensor. Realize image generation from the same viewpoint.

(第1実施例の装置構成)
腹腔鏡下手術では、人体腹部に、直径数センチの連絡孔を5箇所程度形成し、当該連絡孔を通して、腹腔鏡(先端に映像撮影手段を備える)や鉗子が挿入される。そして、腹腔鏡(前記撮像部)によって得られる術中映像を確認しながら、鉗子等の医療器具を操作することで対象領域(疾患)の治療が行われる。
本実施例では、直径約1.5センチ、長さ約30センチの棒状の超音波センサ(前記センサ部)の末端に、該超音波センサの位置検出のためのDC方式の磁気センサ(前記位置検出部)を取り付け、前記連絡孔を通じて腹腔内に挿入すると共に、直径約1センチ、長さ約30センチの棒状の腹腔鏡(前記撮像部)の末端に、位置検出のための磁気センサ(前記位置検出部)を同様に取り付け、他の前記連絡孔を通じて腹腔内に挿入した。ここで、使用した超音波センサは、小型の超音波センサ素子が複数配列されることによって構成されており、該超音波センサを頂点とする円錐状の領域について、身体内の透視情報を撮影することができる(単一の超音波素子からなる超音波センサ、あるいは超音波センサの複数配列によって円錐状(平面状)の2次元領域の透視撮影を実現する超音波センサ等を利用することも可能である)。
(Device configuration of the first embodiment)
In laparoscopic surgery, about 5 communication holes having a diameter of several centimeters are formed in the abdomen of a human body, and a laparoscope (equipped with a video photographing means) and forceps are inserted through the communication holes. The target region (disease) is treated by operating a medical instrument such as forceps while confirming the intraoperative image obtained by the laparoscope (the imaging unit).
In this embodiment, a DC-type magnetic sensor (the position) for detecting the position of the ultrasonic sensor is attached to the end of a rod-shaped ultrasonic sensor (the sensor unit) having a diameter of about 1.5 cm and a length of about 30 cm. A detection unit is attached, inserted into the abdominal cavity through the communication hole, and a magnetic sensor for position detection (the above-described imaging unit) is attached to the end of a rod-shaped laparoscope (the imaging unit) having a diameter of about 1 cm and a length of about 30 cm The position detection unit) was similarly attached and inserted into the abdominal cavity through the other communication hole. Here, the used ultrasonic sensor is configured by arranging a plurality of small ultrasonic sensor elements, and captures fluoroscopic information in the body of a conical region having the ultrasonic sensor as a vertex. (It is also possible to use an ultrasonic sensor composed of a single ultrasonic element, or an ultrasonic sensor that realizes fluoroscopic imaging of a conical (planar) two-dimensional region by multiple arrays of ultrasonic sensors. Is).

前記超音波センサ(前記センサ部)、前記腹腔鏡(前記撮像部)、前記磁気センサ(前記位置検出部)は、それぞれ、超音波センサユニット本体、腹腔鏡ユニット本体、磁気センサ本体を介して、単一の電子計算機に接続した。当該電子計算機では、前記超音波センサにより得られる信号情報をもとに、拡張現実感呈示の対象である血管領域を抽出し、超音波センサと腹腔鏡のそれぞれに設置された前記磁気センサより得られる位置情報を利用して、該血管領域の像を、腹腔鏡により得られた像と同一視点からの像に変換し直し、手術映像を呈示するモニタ(前記表示部)上に両者をオーバーレイ表示した。
尚、超音波センサによれば、血流により生じるドップラー効果を利用して、血液の流れの向きる。すなわち動脈・静脈の区別を実現できる。
上記電子計算機は、本処理を併せて実行し、動脈と静脈を区別して、手術モニタ上に呈示しても良く、このような拡張現実感呈示は、特に腹腔鏡下手術における付加情報として好適なものとなる。
The ultrasonic sensor (the sensor unit), the laparoscope (the imaging unit), and the magnetic sensor (the position detection unit) are respectively passed through an ultrasonic sensor unit main body, a laparoscopic unit main body, and a magnetic sensor main body. Connected to a single computer. In the electronic computer, based on the signal information obtained by the ultrasonic sensor, a blood vessel region that is an object of augmented reality presentation is extracted and obtained from the magnetic sensor installed in each of the ultrasonic sensor and the laparoscope. The image of the blood vessel region is converted back to an image from the same viewpoint as the image obtained by the laparoscope, and both are overlaid on the monitor (the display unit) that presents the operation image. did.
In addition, according to the ultrasonic sensor, the flow of blood is directed using the Doppler effect generated by the blood flow. That is, it is possible to distinguish between arteries and veins.
The electronic computer may execute this processing together to distinguish between arteries and veins and present them on a surgical monitor. Such augmented reality presentation is particularly suitable as additional information in laparoscopic surgery. It will be a thing.

この発明は、上記発明の実施の形態及び実施例の説明に何ら限定されるものではない。特に、腹腔鏡下手術のためのナビゲーションシステム構築の目的のみ成らず、地雷探査や、魚群探知や、温度分布計測や、流速計測など、撮像部とセンサ部と位置検出部を備えることによって拡張現実感像を生成することが可能な種々の用途が含まれる。また特許請求の範囲の記載を逸脱せず、当業者が容易に想到できる範囲で種々の変形態様もこの発明に含まれる。The present invention is not limited to the description of the embodiments and examples of the invention described above. In particular, not only the purpose of building a navigation system for laparoscopic surgery, but also augmented reality by providing an imaging unit, sensor unit, and position detection unit, such as landmine exploration, fish school detection, temperature distribution measurement, and flow velocity measurement. Various applications capable of generating an image are included. Various modifications are also included in the present invention as long as those skilled in the art can easily conceive without departing from the scope of the claims.

図1は本発明の実施形態の構成例を示す模式図である。  FIG. 1 is a schematic diagram showing a configuration example of an embodiment of the present invention. 図2は本発明により得られる拡張現実感像を示す。  FIG. 2 shows an augmented reality image obtained by the present invention. 図3は第1実施例の構成例を示す模式図である。  FIG. 3 is a schematic diagram showing a configuration example of the first embodiment. 図4は第1実施例におけるソフトウェアの処理内容を示すフローチャートである  FIG. 4 is a flowchart showing the processing contents of the software in the first embodiment.

符号の説明Explanation of symbols

1 電子計算機
2 表示部
3 センサ部の本体ユニット
4 位置検出部の本体ユニット
5 撮像部に取り付けられた位置検出部
6 センサ部に取り付けられた位置検出部
7 センサ部
8 撮像部
9 対象領域
10 空間情報
31 センサ部より取得された空間情報(視点変更後)
32 撮像部により撮像された像(視点変更後)
33 ディスプレイ
34 拡張現実感像
51 電子計算機
52 表示部
53 センサ部の本体ユニット
54 位置検出部の本体ユニット
55 撮像部に取り付けられた位置検出部
56 腹腔鏡(撮像部)
57 センサ部に取り付けられた位置検出部
58 超音波センサ(センサ部)
59 対象領域
60 人体腹部
DESCRIPTION OF SYMBOLS 1 Electronic computer 2 Display part 3 Main body unit of sensor part 4 Main body unit of position detection part 5 Position detection part attached to the imaging part 6 Position detection part attached to the sensor part 7 Sensor part 8 Imaging part 9 Target area 10 Space Information 31 Spatial information acquired from the sensor unit (after changing viewpoint)
32 Image captured by the imaging unit (after changing the viewpoint)
33 Display 34 Augmented Reality Image 51 Computer 52 Display Unit 53 Sensor Unit Main Unit 54 Position Detection Unit Main Unit 55 Position Detection Unit Attached to Imaging Unit 56 Laparoscope (Imaging Unit)
57 Position detection unit attached to the sensor unit 58 Ultrasonic sensor (sensor unit)
59 Target area 60 Human abdomen

Claims (8)

対象領域について得ることのできる付加的な分布情報(内部透視像、速度分布、加速度分布、光学的分布、化学的分布、温度分布、濃度分布など)を、当該対象領域の像と併せて呈示する拡張現実感呈示システムであって、
対象領域の撮像する撮像部と、
対象領域の付加的な情報を取得するセンサ部と、
当該撮像部および当該センサ部の位置を検出する位置検出部と、
当該対象領域の像を呈示するための表示部と、
を備え、
位置検出部により得られた当該撮像部と当該センサ部の位置情報を利用することで、
前記撮像部により得られた対象領域の像と、
前記センサ部により得られた対象領域の付加的な情報を、
同じ視点、あるいは一定の関係を有する異なった視点からの像として前記表示部に呈示すること、
を特徴とする拡張現実感呈示システム
Additional distribution information (internal perspective image, velocity distribution, acceleration distribution, optical distribution, chemical distribution, temperature distribution, concentration distribution, etc.) that can be obtained for the target area is presented together with the image of the target area. An augmented reality presentation system,
An imaging unit for imaging a target area;
A sensor unit for acquiring additional information of the target area;
A position detection unit for detecting the position of the imaging unit and the sensor unit;
A display unit for presenting an image of the target area;
With
By using the position information of the imaging unit and the sensor unit obtained by the position detection unit,
An image of the target area obtained by the imaging unit;
Additional information on the target area obtained by the sensor unit,
Presenting the display unit as an image from the same viewpoint or from different viewpoints having a certain relationship;
Augmented Reality Presentation System Characteristic
前記表示部は、
前記撮像部により得られた対象領域の像と、
前記センサ部により得られた対象領域の付加的な分布情報を、
同じ視点からの像として、オーバーレイ呈示することを特徴とすること、
を特徴とする請求項1記載の拡張現実感呈示システム
The display unit
An image of the target area obtained by the imaging unit;
Additional distribution information of the target area obtained by the sensor unit,
It is characterized by showing an overlay as an image from the same viewpoint,
The augmented reality presentation system according to claim 1, wherein:
前記表示部は、
前記撮像部により得られた対象領域の像と、
前記センサ部により得られた対象領域の付加的な分布情報を、
同じ視点、あるいは一定の関係を有する異なった視点からの像としてリアルタイム呈示することを特徴とすること、
を特徴とする請求項1記載の拡張現実感呈示システム
The display unit
An image of the target area obtained by the imaging unit;
Additional distribution information of the target area obtained by the sensor unit,
It is characterized by being presented in real time as an image from the same viewpoint or from different viewpoints with a certain relationship,
The augmented reality presentation system according to claim 1, wherein:
前記センサ部は、透視撮影用センサ(例えば、超音波センサやX線センサ)であることを特徴とする請求項1から請求項3のいずれかに記載の拡張現実感呈示システムThe augmented reality presentation system according to claim 1, wherein the sensor unit is a fluoroscopic sensor (for example, an ultrasonic sensor or an X-ray sensor). 前記撮像部は腹腔鏡であることを特徴とする請求項4記載の拡張現実感呈示システムThe augmented reality presentation system according to claim 4, wherein the imaging unit is a laparoscope. 対象領域について得ることのできる付加的な分布情報(内部透視像、速度分布、加速度分布、光学的分布、化学的分布、温度分布、濃度分布など)を、当該対象領域の像と併せて呈示する拡張現実感呈示のためのソフトウェアであって、
対象領域について撮像された像と、
対象領域について得られた任意の付加的な情報と、
当該像および当該情報の位置情報(座標情報、およびオリエンテーション情報)から、
前記対象領域の付加的な情報を、前記像に、
同じ視点、あるいは一定の関係を有する異なった視点からの像として併せて呈示する拡張現実感呈示像を生成する、
を特徴とする拡張現実感呈示のためのソフトウェア
Additional distribution information (internal perspective image, velocity distribution, acceleration distribution, optical distribution, chemical distribution, temperature distribution, concentration distribution, etc.) that can be obtained for the target area is presented together with the image of the target area. A software for presenting augmented reality,
An image captured of the target area;
Any additional information obtained about the area of interest, and
From the image and position information (coordinate information and orientation information) of the information,
Additional information of the target area is added to the image,
Generate augmented reality presentation images that are presented together as images from the same viewpoint or from different viewpoints with a certain relationship,
Augmented reality presentation software featuring
前記拡張現実感呈示像は、
前記対象領域の付加的な情報を、前記像に、
同じ視点からの像として、オーバーレイ呈示することを特徴とすること、
を特徴とする請求項6記載の拡張現実感呈示システム
The augmented reality presentation image is:
Additional information on the target area is added to the image.
It is characterized by showing an overlay as an image from the same viewpoint,
The augmented reality presentation system according to claim 6, wherein
前記拡張現実感呈示像は、
前記対象領域の付加的な情報を、前記像に、
同じ視点、あるいは一定の関係を有する異なった視点からの像としてリアルタイム呈示することを特徴とすること、
を特徴とする請求項6記載の拡張現実感呈示システム
The augmented reality presentation image is:
Additional information on the target area is added to the image.
It is characterized by being presented in real time as an image from the same viewpoint or from different viewpoints with a certain relationship,
The augmented reality presentation system according to claim 6, wherein
JP2005363993A 2005-11-18 2005-11-18 System for presenting augmented reality Pending JP2007136133A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005363993A JP2007136133A (en) 2005-11-18 2005-11-18 System for presenting augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005363993A JP2007136133A (en) 2005-11-18 2005-11-18 System for presenting augmented reality

Publications (1)

Publication Number Publication Date
JP2007136133A true JP2007136133A (en) 2007-06-07

Family

ID=38199672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005363993A Pending JP2007136133A (en) 2005-11-18 2005-11-18 System for presenting augmented reality

Country Status (1)

Country Link
JP (1) JP2007136133A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100996A (en) * 2007-10-24 2009-05-14 Aloka Co Ltd Ultrasonic diagnostic system
KR100957470B1 (en) 2009-08-28 2010-05-17 주식회사 래보 Surgical robot system using augmented reality and control method thereof
WO2010110560A2 (en) * 2009-03-24 2010-09-30 주식회사 래보 Surgical robot system using augmented reality, and method for controlling same
JP2011104079A (en) * 2009-11-17 2011-06-02 Univ Of Tokyo Medical image processing system
JP2011212367A (en) * 2010-04-01 2011-10-27 Toshimichi Mori Diagnostic system, method for positioning 3d image information and substance, and program for operating dental diagnostic system
KR101108927B1 (en) 2009-03-24 2012-02-09 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
JP2012520152A (en) * 2009-03-13 2012-09-06 ケー−スペース エルエルシー Medical interactive MRI system and patient anxiety reduction distraction system
WO2013006534A1 (en) * 2011-07-01 2013-01-10 Intel Corporation Mobile augmented reality system
JP2016202351A (en) * 2015-04-17 2016-12-08 健司 三木 Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP6095032B1 (en) * 2016-03-03 2017-03-15 株式会社菊池製作所 Composite image presentation system
KR101798590B1 (en) 2011-02-28 2017-11-17 주식회사 미래컴퍼니 Master robot, surgical robot system using thereof, control method thereof, and recording medium thereof
JP2018017520A (en) * 2016-07-25 2018-02-01 富士ゼロックス株式会社 Colorimetry system, image generation device, and program
JP2018535725A (en) * 2015-10-09 2018-12-06 スリーディインテグレイテッド アーペーエス3Dintegrated Aps Description system
CN109310271A (en) * 2016-05-23 2019-02-05 徕卡仪器(新加坡)有限公司 Medical observation equipment, such as microscope or endoscope, and the method using the pseudo-colours pattern with time and/or spatial modulation
WO2019155931A1 (en) * 2018-02-09 2019-08-15 ソニー株式会社 Surgical system, image processing device, and image processing method
WO2021181551A1 (en) * 2020-03-11 2021-09-16 オリンパス株式会社 Medical system

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100996A (en) * 2007-10-24 2009-05-14 Aloka Co Ltd Ultrasonic diagnostic system
JP2012520152A (en) * 2009-03-13 2012-09-06 ケー−スペース エルエルシー Medical interactive MRI system and patient anxiety reduction distraction system
WO2010110560A2 (en) * 2009-03-24 2010-09-30 주식회사 래보 Surgical robot system using augmented reality, and method for controlling same
WO2010110560A3 (en) * 2009-03-24 2011-03-17 주식회사 이턴 Surgical robot system using augmented reality, and method for controlling same
KR101108927B1 (en) 2009-03-24 2012-02-09 주식회사 이턴 Surgical robot system using augmented reality and control method thereof
KR100957470B1 (en) 2009-08-28 2010-05-17 주식회사 래보 Surgical robot system using augmented reality and control method thereof
JP2011104079A (en) * 2009-11-17 2011-06-02 Univ Of Tokyo Medical image processing system
JP2011212367A (en) * 2010-04-01 2011-10-27 Toshimichi Mori Diagnostic system, method for positioning 3d image information and substance, and program for operating dental diagnostic system
KR101798590B1 (en) 2011-02-28 2017-11-17 주식회사 미래컴퍼니 Master robot, surgical robot system using thereof, control method thereof, and recording medium thereof
US10740975B2 (en) 2011-07-01 2020-08-11 Intel Corporation Mobile augmented reality system
WO2013006534A1 (en) * 2011-07-01 2013-01-10 Intel Corporation Mobile augmented reality system
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US11393173B2 (en) 2011-07-01 2022-07-19 Intel Corporation Mobile augmented reality system
US10134196B2 (en) 2011-07-01 2018-11-20 Intel Corporation Mobile augmented reality system
JP2016202351A (en) * 2015-04-17 2016-12-08 健司 三木 Medical support system, medical support method, image processing apparatus, control method and control program thereof
JP2018535725A (en) * 2015-10-09 2018-12-06 スリーディインテグレイテッド アーペーエス3Dintegrated Aps Description system
JP2017153827A (en) * 2016-03-03 2017-09-07 株式会社菊池製作所 Composite image presentation system
JP6095032B1 (en) * 2016-03-03 2017-03-15 株式会社菊池製作所 Composite image presentation system
JP2020157088A (en) * 2016-05-23 2020-10-01 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッドLeica Instruments (Singapore) Pte. Ltd. Medical observation device, such as microscope or endoscope, and method of using pseudo-color pattern having temporal and/or spatial modulation
JP2019520879A (en) * 2016-05-23 2019-07-25 ライカ インストゥルメンツ (シンガポール) プライヴェット リミテッドLeica Instruments (Singapore) Pte. Ltd. Medical observation apparatus such as a microscope or an endoscope and method using a pseudo-color pattern with temporal modulation and / or spatial modulation
CN109310271A (en) * 2016-05-23 2019-02-05 徕卡仪器(新加坡)有限公司 Medical observation equipment, such as microscope or endoscope, and the method using the pseudo-colours pattern with time and/or spatial modulation
CN109310271B (en) * 2016-05-23 2021-05-28 徕卡仪器(新加坡)有限公司 Medical observation device and method for temporally and/or spatially modulated false color patterns
CN113256545A (en) * 2016-05-23 2021-08-13 徕卡仪器(新加坡)有限公司 Medical observation device and method for temporally and/or spatially modulated false color patterns
CN107656609A (en) * 2016-07-25 2018-02-02 富士施乐株式会社 Chromatic measuring system, image forming apparatus and image generating method
JP7098870B2 (en) 2016-07-25 2022-07-12 富士フイルムビジネスイノベーション株式会社 Color measurement system, image generator, and program
JP2018017520A (en) * 2016-07-25 2018-02-01 富士ゼロックス株式会社 Colorimetry system, image generation device, and program
CN107656609B (en) * 2016-07-25 2022-09-30 富士胶片商业创新有限公司 Color measurement system, image generation apparatus, and image generation method
WO2019155931A1 (en) * 2018-02-09 2019-08-15 ソニー株式会社 Surgical system, image processing device, and image processing method
WO2021181551A1 (en) * 2020-03-11 2021-09-16 オリンパス株式会社 Medical system

Similar Documents

Publication Publication Date Title
JP2007136133A (en) System for presenting augmented reality
US20220192611A1 (en) Medical device approaches
Bichlmeier et al. The virtual mirror: a new interaction paradigm for augmented reality environments
US10127629B2 (en) System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
Gavaghan et al. A portable image overlay projection device for computer-aided open liver surgery
US6768496B2 (en) System and method for generating an image from an image dataset and a video image
US20110105895A1 (en) Guided surgery
US20150049174A1 (en) System and method for non-invasive patient-image registration
EP2641561A1 (en) System and method for determining camera angles by using virtual planes derived from actual images
JP6323335B2 (en) Image processing apparatus, image processing method, and program
JP6049202B2 (en) Image processing apparatus, method, and program
US10799146B2 (en) Interactive systems and methods for real-time laparoscopic navigation
WO2018195529A1 (en) Using augmented reality in surgical navigation
WO2013141155A1 (en) Image completion system for in-image cutoff region, image processing device, and program therefor
JP2015526133A5 (en)
JP5961504B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
WO2008004222A2 (en) Computer image-aided method and system for guiding instruments through hollow cavities
US20150301439A1 (en) Imaging Projection System
EP2777593A2 (en) Real time image guidance system
De Paolis et al. Augmented reality in minimally invasive surgery
JP2010088699A (en) Medical image processing system
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
Vogt Real-Time Augmented Reality for Image-Guided Interventions
JP2006288869A (en) Display device of endoscopic image
Zhang et al. From AR to AI: augmentation technology for intelligent surgery and medical treatments