JP2009216958A - Three-dimensional display - Google Patents

Three-dimensional display Download PDF

Info

Publication number
JP2009216958A
JP2009216958A JP2008060446A JP2008060446A JP2009216958A JP 2009216958 A JP2009216958 A JP 2009216958A JP 2008060446 A JP2008060446 A JP 2008060446A JP 2008060446 A JP2008060446 A JP 2008060446A JP 2009216958 A JP2009216958 A JP 2009216958A
Authority
JP
Japan
Prior art keywords
image
image data
screen
screen object
dimensional display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008060446A
Other languages
Japanese (ja)
Other versions
JP5024766B2 (en
Inventor
Tatsugo Kijima
竜吾 木島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gifu University NUC
Original Assignee
Gifu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gifu University NUC filed Critical Gifu University NUC
Priority to JP2008060446A priority Critical patent/JP5024766B2/en
Publication of JP2009216958A publication Critical patent/JP2009216958A/en
Application granted granted Critical
Publication of JP5024766B2 publication Critical patent/JP5024766B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Overhead Projectors And Projection Screens (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Projection Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional display by which the inside of an object that has been hardly observed hitherto is easily and exactly observed. <P>SOLUTION: In the three-dimensional display 1, a screen object 3 is constituted of two components 3a and 3b which can be divided and reassembled. When the screen object 3 is disassembled and the surface of the component included therein until then is newly exposed to projection space 6 of an image projection means, an image data-generating means newly generates an image to display the inside of a virtual object projected before disassembling the screen object in order to project the image on the surface. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プロジェクタ等の投影手段によって、三次元形状を有する移動可能なスクリーン物体に画像を投影して表示する三次元表示装置に関する。   The present invention relates to a three-dimensional display device that projects and displays an image on a movable screen object having a three-dimensional shape by projection means such as a projector.

実物体を模したスクリーン物体に、実物体と関連する画像を投影表示する三次元表示装置が、非特許文献1に開示されている。非特許文献1の三次元表示装置が表示する画像の代表的な例は、スクリーン物体が模している実物体の内部を表す画像である。このような画像を投影した場合には、実物体の中に仮想物体が埋め込まれており、実物体が透明化してその内部を観察しているかのような視覚効果を生じさせることができる。例えば、マネキンの表面に内臓の画像を投影し、マネキンの移動や回転に追従するように投影する内臓の画像を変化させることにより、あたかもマネキンが透明化して内臓をいろいろな方向から観察しているかのような表示を行うことが可能となる。
Daisuke Kondo, Toshiyuki Goto, Makoto Kouno, Ryugo Kijima and Yuzo Takahashi, "A Virtual Anatomical Torso for Medical Education using Free From Image Projection", Procs of the Tenth International Conference on VSMM 2004, pp678-685.
Non-Patent Document 1 discloses a three-dimensional display device that projects and displays an image related to a real object on a screen object that imitates the real object. A typical example of an image displayed by the 3D display device of Non-Patent Document 1 is an image representing the inside of an actual object imitated by a screen object. When such an image is projected, a virtual object is embedded in the real object, and a visual effect can be produced as if the real object is transparent and the inside is observed. For example, by projecting an image of the internal organs on the surface of the mannequin and changing the internal organ image to be projected so as to follow the movement and rotation of the mannequin, the mannequin is transparent and the internal organs are observed from various directions. It is possible to perform such display.
Daisuke Kondo, Toshiyuki Goto, Makoto Kouno, Ryugo Kijima and Yuzo Takahashi, "A Virtual Anatomical Torso for Medical Education using Free From Image Projection", Procs of the Tenth International Conference on VSMM 2004, pp678-685.

非特許文献1に記載される三次元表示装置は、スクリーン物体の精密な形状データを記憶している。そして、画像の観察者の視点位置と、投影手段の位置姿勢と、スクリーン物体の位置姿勢とを随時計測し、この計測結果を用いた数値演算を行って運動視差と両眼視差を考慮した画像を生成している。具体的には、特殊な仮想空間を定義して、その仮想空間の中で、実空間における視点位置とプロジェクタ位置とを入れ替えて、各透視投影変換の逆変換を逐次行うことにより、スクリーン物体と一体化した仮想物体の画像を生成し、この画像を投影する。画像の観察者は、スクリーン物体と仮想物体とを同時に観察することができ、その位置関係、表面からの深さ、内部物体の大きさ等を直感的に知ることができる。   The three-dimensional display device described in Non-Patent Document 1 stores precise shape data of a screen object. Then, the viewpoint position of the observer of the image, the position and orientation of the projection means, and the position and orientation of the screen object are measured as needed, and an image that takes into account motion parallax and binocular parallax by performing numerical calculations using the measurement results Is generated. Specifically, a special virtual space is defined, and in the virtual space, the viewpoint position and the projector position in the real space are exchanged, and the inverse transformation of each perspective projection transformation is sequentially performed, so that the screen object and An image of the integrated virtual object is generated, and this image is projected. The observer of the image can observe the screen object and the virtual object at the same time, and can intuitively know the positional relationship, the depth from the surface, the size of the internal object, and the like.

非特許文献1の三次元表示装置は、スクリーン物体が模している実物体の全体像を容易に把握することのできる優れた装置である。しかしながら、非特許文献1の三次元表示装置においては、実物体の特定の断面の詳細な観察を行う場合や、複数の部品によって組み立てられている構造物の最奥部の観察を行う場合に、スクリーン物体と仮想物体の画像との関連性が低くなり、視覚効果が不十分となる恐れがあった。即ち、従来の予め形状が規定されているスクリーン物体に、実物体の断面の画像や最奥部の画像を切り替えて表示した場合には、観察者がスクリーン物体と仮想物体の画像との位置関係の関連性を理解し難くなる可能性があった。   The three-dimensional display device of Non-Patent Document 1 is an excellent device that can easily grasp an entire image of a real object imitated by a screen object. However, in the three-dimensional display device of Non-Patent Document 1, when performing detailed observation of a specific cross section of a real object, or when observing the innermost part of a structure assembled by a plurality of parts, The relevance between the screen object and the image of the virtual object is low, and the visual effect may be insufficient. In other words, when the image of the cross-section of the real object and the image of the innermost part are switched and displayed on the conventional screen object having a pre-defined shape, the positional relationship between the screen object and the image of the virtual object It may be difficult to understand the relevance of.

従来、特定の部分の画像をより詳細に観察するためには、マウスやキーボードといった入力手段で画像上の観察位置を指定して、別のディスプレイに表示する方法が知られている。しかしながら、このような方法を非特許文献1の三次元表示装置に適用しても、先に述べたようにスクリーン物体と仮想物体の画像との1対1の対応が失われてしまい、充分な視覚効果を得ることは困難であった。   Conventionally, in order to observe an image of a specific part in more detail, a method of specifying an observation position on the image with an input means such as a mouse or a keyboard and displaying it on another display is known. However, even if such a method is applied to the three-dimensional display device disclosed in Non-Patent Document 1, the one-to-one correspondence between the screen object and the virtual object image is lost as described above. It was difficult to obtain a visual effect.

本発明は、上記課題を解決するためになされたものであって、特定の物体の断面の詳細な観察や、複数の部品によって組み立てられている構造物の最奥部の観察のために特に適しており、これまでは観察することが困難であった物体の内部を、容易且つ正確に観察できる三次元表示装置を提供することを目的とする。   The present invention has been made to solve the above problems, and is particularly suitable for detailed observation of a cross section of a specific object and observation of the innermost part of a structure assembled by a plurality of parts. It is an object of the present invention to provide a three-dimensional display device that can easily and accurately observe the inside of an object that has been difficult to observe.

本発明は、三次元形状を有するスクリーン物体に画像を投影して表示する三次元表示装置に関する。本発明の三次元表示装置は、スクリーン物体に投影する画像データを生成する画像データ生成手段と、画像データ生成手段により生成された画像データを投影する画像投影手段と、画像データ生成手段に入力するためのスクリーン物体の位置及び姿勢を測定する位置姿勢センサとを備えている。三次元表示装置のスクリーン物体は、複数の部品で構成されており、分解と再組み立てが可能である。又、画像データ生成手段は、位置姿勢センサからの入力データに基づいてスクリーン物体の部品の位置と姿勢とを計算しており、スクリーン物体の分解によってそれまで内包されていた部品の表面が画像投影手段の投影空間に新たに露出されたことが認識されると、分解前のスクリーン物体に投影されていた画像が表示する物体の内部画像を、新たに露出された部品の表面の位置に生成する。生成された画像は、画像投影手段によって、スクリーン物体に投影される。   The present invention relates to a three-dimensional display device that projects and displays an image on a screen object having a three-dimensional shape. The three-dimensional display device of the present invention inputs image data generating means for generating image data to be projected on a screen object, image projecting means for projecting image data generated by the image data generating means, and image data generating means. A position and orientation sensor for measuring the position and orientation of the screen object. The screen object of the three-dimensional display device is composed of a plurality of parts and can be disassembled and reassembled. Further, the image data generation means calculates the position and orientation of the part of the screen object based on the input data from the position and orientation sensor, and the surface of the part that has been contained so far by image decomposition is projected on the image. When it is recognized that the image is newly exposed in the projection space of the means, an internal image of the object displayed by the image projected on the screen object before decomposition is generated at the position of the surface of the newly exposed part. . The generated image is projected onto the screen object by the image projecting means.

本発明の三次元表示装置は、スクリーン物体が、分割と再組み立て可能に構成されている。画像データ生成手段は、スクリーン物体が分解されて、それまで内包されていた部品の表面が画像投影手段の投影空間に新たに露出された場合には、この表面に投影するために、スクリーン画像が分解される前に投影されていた画像が表わしている物体の内部を表示する画像を新たに生成する。画像投影手段が、この新たに生成された画像をスクリーン物体の新たな表面に投影すると、あたかも、物体が分解されて、スクリーン物体の中に画像による仮想物体が埋め込まれているような視覚効果を得ることができる。   The three-dimensional display device of the present invention is configured such that the screen object can be divided and reassembled. When the screen object is disassembled and the surface of the part previously contained is newly exposed in the projection space of the image projection means, the image data generation means is adapted to project the screen image to this surface. An image that newly displays the inside of the object represented by the image projected before the decomposition is generated. When the image projecting means projects this newly generated image onto a new surface of the screen object, the visual effect is as if the object is disassembled and a virtual object is embedded in the screen object. Obtainable.

本発明は、スクリーン物体を構成する複数の部品が、ヒンジによって接続されていることを特徴とする。部品同士が接続されてその移動が規制されることにより、操作性が向上し、個々の部品の紛失の恐れがなく、再組み立ても容易である。   The present invention is characterized in that a plurality of parts constituting the screen object are connected by a hinge. By connecting the parts and restricting their movement, the operability is improved, there is no risk of losing individual parts, and reassembly is easy.

本発明は、スクリーン物体の部品がヒンジで接続されているヒンジ配設部に、角度センサが取り付けられていることを特徴とする。画像データ生成手段は、角度センサからの入力を受けて、各部品の相対的な位置関係を把握することが可能となる。この結果、スクリーン物体の全ての部品の位置と姿勢とを検出するためにスクリーン物体に固定する位置姿勢センサの数をより減ずることが可能となる。   The present invention is characterized in that an angle sensor is attached to a hinge arrangement portion in which parts of a screen object are connected by a hinge. The image data generation means can receive the input from the angle sensor and grasp the relative positional relationship between the components. As a result, it is possible to further reduce the number of position and orientation sensors fixed to the screen object in order to detect the positions and orientations of all parts of the screen object.

本発明の三次元表示装置は、複数の部品によって一のスクリーン物体が構成されており、位置姿勢センサが、これら部品毎に取り付けられている。画像データ生成手段は、前記部品の取り外しに応じた画像を生成する。即ち、本発明の画像データ生成手段は、分解前には、一のスクリーン物体が模している実物体全体の表示を行い、部品が取り外された場合には、実物体から対応する部品が外された状態の画像を生成することを特徴とする。   In the three-dimensional display device of the present invention, one screen object is constituted by a plurality of parts, and a position and orientation sensor is attached to each of these parts. The image data generating means generates an image corresponding to the removal of the component. That is, the image data generation means of the present invention displays the entire real object imitated by one screen object before disassembly, and when the part is removed, the corresponding part is removed from the real object. Generating an image in a rendered state.

本発明の三次元表示装置は、画像データ生成手段が、実空間の所定の位置に固定される固定画像を生成しており、スクリーン物体の分解位置に応じて画像を生成することを特徴とする。   The three-dimensional display device according to the present invention is characterized in that the image data generating means generates a fixed image fixed at a predetermined position in the real space, and generates an image according to the decomposition position of the screen object. .

本発明の画像データ生成手段は、通常、実空間の所定の位置に固定されている画像を生成している。そして、固定されている画像の投影空間の中に、分解前のスクリーン物体を配置して画像を投影することにより、スクリーン物体に埋め込まれた仮想物体全体を観察することができる。画像が投影されているスクリーン物体を分解した場合には、位置姿勢センサからの入力によって画像データ生成手段はスクリーン物体の分解を認識し、スクリーン物体の分解位置に応じて仮想物体が分解された画像を生成する。観察者は、自らの操作によってスクリーン物体を画像の投影空間の中で移動させ、仮想物体の内部を表示させたい位置でスクリーン物体を分解することにより、詳細な内部の画像をスクリーン物体に投影して観察することができる。   The image data generation means of the present invention normally generates an image that is fixed at a predetermined position in the real space. The entire virtual object embedded in the screen object can be observed by arranging the screen object before decomposition in the fixed image projection space and projecting the image. When the screen object on which the image is projected is decomposed, the image data generation means recognizes the decomposition of the screen object by the input from the position and orientation sensor, and the virtual object is decomposed according to the decomposition position of the screen object. Is generated. The observer moves the screen object in the projection space of the image by his / her own operation, and disassembles the screen object at the position where the inside of the virtual object is to be displayed, thereby projecting a detailed internal image onto the screen object. Can be observed.

本発明の画像データ生成手段は、スクリーン物体の位置に追従して移動する移動画像を生成しており、スクリーン物体の分解位置に応じて画像を生成することを特徴とする。   The image data generation means of the present invention generates a moving image that moves following the position of the screen object, and generates an image according to the decomposition position of the screen object.

本発明の三次元表示装置は、画像データ生成手段により生成される画像を、実空間の所定の位置に固定するか、スクリーン物体の位置に追従して移動するかを切り替えるスイッチ手段を備えていることを特徴とする。   The three-dimensional display device of the present invention includes switch means for switching whether the image generated by the image data generation means is fixed at a predetermined position in the real space or moves following the position of the screen object. It is characterized by that.

本発明のスイッチ手段を用いることによって、画像を実空間に固定するか、スクリーン物体の移動に追従するかを選択することが可能となり、より観察が容易な位置姿勢にスクリーン物体と画像の位置関係を調整した状態で、スクリーン物体を分解してその内部を観察することが可能となる。   By using the switch means of the present invention, it is possible to select whether the image is fixed in real space or following the movement of the screen object, and the positional relationship between the screen object and the image is more easily observed. It is possible to disassemble the screen object and observe the inside in a state in which is adjusted.

本発明の三次元表示装置は、スクリーン物体が分解された場合には、分解によって露出した表面に、分解前に投影されていた画像の内部構造を表示する画像を新たに生成して投影することができる。新たな画像が投影されることで、あたかも分解されたスクリーン物体の中に画像による仮想物体が埋め込まれてその断面を表示しているかのような視覚効果を得ることができる。観察者は、実物体の分解前の形状と、新たな画像が模している仮想物体との関連性を直感的に認識することができるため、実物体及び仮想物体の内部構造に対する理解を容易に深めることが可能となる。   When the screen object is decomposed, the three-dimensional display device of the present invention newly generates and projects an image displaying the internal structure of the image projected before the decomposition on the surface exposed by the decomposition. Can do. By projecting a new image, it is possible to obtain a visual effect as if a virtual object by the image is embedded in the decomposed screen object and its cross section is displayed. The observer can intuitively recognize the relationship between the shape before the decomposition of the real object and the virtual object imitated by the new image, making it easy to understand the internal structure of the real object and the virtual object It becomes possible to deepen.

本発明の三次元表示装置によって、観察者は、実空間に固定された状態で投影されている画像の投影空間の中でスクリーン物体を移動させ、自らが選択した位置でスクリーン物体を分解することにより、実物体の任意の位置の断面に対応する内部の画像を、スクリーン物体に投影させて三次元で観察することができる。   With the three-dimensional display device of the present invention, the observer moves the screen object in the projection space of the image projected in a fixed state in the real space, and disassembles the screen object at the position selected by the observer. Thus, an internal image corresponding to a cross section at an arbitrary position of the real object can be projected on the screen object and observed in three dimensions.

本発明の三次元表示装置は、複数の部品で構成される一の構造物を模したスクリーン物体に、部品の取り外しに応じた画像を生成することができる。観察者は、構造物の形状を模したスクリーン物体と、構造物の部品の詳細な構成を表示する画像との関連性が充分に維持された状態で、構造物の組み立てと解体の詳細な過程を視覚的に確認し、構造物の最奥部の詳細な構成を容易に観察することが可能となる。   The three-dimensional display device of the present invention can generate an image corresponding to the removal of a part on a screen object that imitates one structure composed of a plurality of parts. The observer is a detailed process of assembling and disassembling the structure while maintaining a sufficient relationship between the screen object simulating the shape of the structure and the image that displays the detailed structure of the parts of the structure. Can be visually confirmed, and the detailed configuration of the innermost part of the structure can be easily observed.

(第1実施例)以下に、本発明の三次元表示装置1の実施例を、図面を参照しつつ詳細に説明する。本実施例においては、分解と再組み立てが可能な、同一形状の2つの半球形の部品3a,3bからなる組み合わせ型スクリーン3を使用し、そこに仮想物体である実物大の内臓を表現する画像データを投影表示する三次元表示装置1について、詳細に説明する。 (First Embodiment) Hereinafter, an embodiment of the three-dimensional display device 1 of the present invention will be described in detail with reference to the drawings. In the present embodiment, an image representing a full-size internal organ, which is a virtual object, is used by using a combination screen 3 composed of two hemispherical parts 3a and 3b having the same shape that can be disassembled and reassembled. The three-dimensional display device 1 that projects and displays data will be described in detail.

図1に、本実施例に係る三次元表示装置1の構成を模式的に示す。本実施例における三次元表示装置1は、プロジェクタ2と、組み合わせ型スクリーン3を備えている。プロジェクタ2が投影する内臓の画像のデータは、接続されているコンピュータ9の記憶装置に実行可能なプログラムの形で記憶されている画像データ生成手段から供給される。   FIG. 1 schematically shows a configuration of a three-dimensional display device 1 according to the present embodiment. The three-dimensional display device 1 in this embodiment includes a projector 2 and a combination screen 3. The data of the internal image projected by the projector 2 is supplied from image data generating means stored in the form of a program that can be executed in the storage device of the connected computer 9.

コンピュータ9の中の画像データ生成手段は、組み合わせ型スクリーン3を構成する部品3a,3bの精密な表面形状のデータと、投影する内臓のボリュームデータとをあらかじめ記憶している。内臓のボリュームデータは、三次元の座標とその座標毎の色情報で構成されている。ボリュームデータは、視野中心部の解像度が1mmで投影された場合に、実物大の内臓の大きさを表示することが可能な精度で作成されている。   The image data generation means in the computer 9 stores in advance data on the precise surface shape of the parts 3a and 3b constituting the combination screen 3 and the volume data of the internal organs to be projected. The internal volume data is composed of three-dimensional coordinates and color information for each coordinate. The volume data is created with an accuracy capable of displaying the size of a full-scale internal organ when the resolution at the center of the visual field is projected at 1 mm.

コンピュータ9には、部品3a,3bにそれぞれ接続されているスクリーン位置姿勢センサ10と、観察者の視点位置を計測するための視点位置センサ12とが接続されている。視点位置センサ12と、スクリーン位置姿勢センサ10とは、同一の仕様を有する磁気を利用したセンサであって、磁界発生源14が発生する磁力を計測して6自由度の位置を計測して出力する。視点位置センサ12と、スクリーン位置姿勢センサ10が出力した位置の計測データは、それぞれコンピュータ9に入力されて、画像データ生成手段の計算に利用される。視点位置センサ12は、画像投影時には、観察者の頭部に固定されている。   Connected to the computer 9 are a screen position and orientation sensor 10 connected to each of the components 3a and 3b, and a viewpoint position sensor 12 for measuring the viewpoint position of the observer. The viewpoint position sensor 12 and the screen position / orientation sensor 10 are sensors using magnetism having the same specifications, and measure the magnetic force generated by the magnetic field generation source 14 to measure and output the position of 6 degrees of freedom. To do. The position measurement data output by the viewpoint position sensor 12 and the screen position / orientation sensor 10 are respectively input to the computer 9 and used for calculation by the image data generation means. The viewpoint position sensor 12 is fixed to the observer's head during image projection.

スクリーン位置姿勢センサ10は、部品3a,3bの予め指定された位置に正確に固定される。スクリーン位置姿勢センサ10の出力する位置姿勢の情報に基づいて、画像データ生成手段は、空間内の部品3a,3bの正確な位置姿勢を算出する。算出された部品3aの平面部分4a(図3に記載)と、部品3bの平面部分4b(図3に記載)の位置が空間的に一致している場合、画像データ生成手段は、組み合わせ型スクリーン3は、平面部分4aと平面部分4bが接合面となっている1つの球状に組み合わされており、平面部分が露出していないと認識する。一方、部品3a,3bのそれぞれの平面部分4a,4bの位置が離れている場合、組み合わせ型スクリーン3は分解されていると認識する。   The screen position / orientation sensor 10 is accurately fixed at a predetermined position of the parts 3a and 3b. Based on the position and orientation information output from the screen position and orientation sensor 10, the image data generation means calculates the exact position and orientation of the components 3a and 3b in the space. If the calculated position of the plane portion 4a (described in FIG. 3) of the component 3a and the position of the plane portion 4b (described in FIG. 3) of the component 3b are spatially coincident, the image data generating means 3 recognizes that the flat surface portion 4a and the flat surface portion 4b are combined into one spherical shape having a bonding surface, and the flat surface portion is not exposed. On the other hand, when the positions of the plane portions 4a and 4b of the parts 3a and 3b are separated, the combination screen 3 is recognized as being disassembled.

図2に示すように、画像データ生成手段は、組み合わせ型スクリーン3が投影手段2の投影空間6に存在しており、且つ組み合わせ型スクリーン3が組み合わされていると認識している場合、部品3a,3bのそれぞれの半球形部分5a,5bに投影するために、あらかじめ記憶している内蔵のボリュームデータのうち外表面に相当する部分のデータを元に、内臓の外形画像データ7を生成する。外形画像データ7は、視点位置センサ12と位置姿勢センサ10のデータを用いて透視投影変換の逆変換を行うことで歪みが補正されており、視点センサ12を装着した観察者は、外形画像データ7を観察することで、歪みがなく立体的に見える内臓の画像を認識することができる。組み合わせ型スクリーン3の移動が位置姿勢センサ10で認識された場合には、その動作に追従できるように位置を変更した外形画像データ7を生成し、投影手段2が新たな外形画像データ7を投影空間に投影し続ける。   As shown in FIG. 2, when the image data generating means recognizes that the combination type screen 3 exists in the projection space 6 of the projection means 2 and the combination type screen 3 is combined, the component 3a , 3b, the internal outline image data 7 is generated based on the data corresponding to the outer surface of the built-in volume data stored in advance. The outline image data 7 has its distortion corrected by performing reverse transformation of the perspective projection transformation using the data of the viewpoint position sensor 12 and the position and orientation sensor 10, and the observer wearing the viewpoint sensor 12 can obtain the outline image data. By observing 7, it is possible to recognize a visceral image that looks stereoscopic without distortion. When the movement of the combination screen 3 is recognized by the position / orientation sensor 10, the outline image data 7 whose position is changed so as to follow the operation is generated, and the projection unit 2 projects the new outline image data 7. Continue to project into space.

画像データ生成手段は、部品3aと部品3bの接合位置に投影される外形画像データ7の座標値を予め認識している。そして更に、外形画像データ7に対応している内臓のボリュームデータの断面作成位置を予め認識している。画像データ生成手段は、分割されて新たに露出した部品3a,3bの平面部分の4a,4bに投影するための画像として、内蔵のボリュームデータを断面作成位置で抽出したデータを用いる。   The image data generation means recognizes in advance the coordinate values of the outline image data 7 projected on the joint position between the component 3a and the component 3b. Furthermore, the cross-section creation position of the internal volume data corresponding to the outline image data 7 is recognized in advance. The image data generation means uses data obtained by extracting the built-in volume data at the cross-section creation position as an image to be projected onto the flat portions 4a and 4b of the parts 3a and 3b that have been divided and newly exposed.

図3に示すように組み合わせ型スクリーン3が分解されると、部品3a,3bの平面部分の4a,4bの位置が、離れた状態となる。画像データ生成手段は、位置姿勢センサ10が出力する位置の計測データから組み合わせ形スクリーン3が分解されたことを認識すると、新たに投影空間に露出した平面部分4aに投影する断面画像データ8aと、平面部分4bに投影する断面画像データ8bを生成する。   When the combination screen 3 is disassembled as shown in FIG. 3, the positions of the flat portions 4a and 4b of the parts 3a and 3b are separated from each other. When recognizing that the combination screen 3 is disassembled from the measurement data of the position output by the position and orientation sensor 10, the image data generation means, the sectional image data 8a to be projected onto the plane portion 4a newly exposed in the projection space, Cross-sectional image data 8b to be projected onto the plane portion 4b is generated.

同時に、画像データ生成手段は、画像の投影可能な範囲に部品の半球形部分5a,5bが位置している場合には、これらに投影する外形画像データ7a,7bを同時に生成する。外形画像データ7a,7bは、外形画像データ7を、部品3aと部品3bの接合部分で切断して分割することで生成される。投影手段2は、画像データ生成手段が生成する断面画像データ8a,8bと、外形画像データ7a,7bを投影空間に投影し続ける。   At the same time, when the hemispherical parts 5a and 5b of the component are located within the projectable range of the image, the image data generating means simultaneously generates the outline image data 7a and 7b to be projected on these parts. The outline image data 7a and 7b are generated by cutting and dividing the outline image data 7 at the joint portion between the component 3a and the component 3b. The projection unit 2 continues to project the cross-sectional image data 8a and 8b and the outline image data 7a and 7b generated by the image data generation unit on the projection space.

分解された部品3a,3bを再度組み立てると、部品3aの平面部分4aと部品3bの平面部分4bの位置が空間的に一致することになり、画像データ生成手段は、組み合わせ型スクリーン3が1つの球状に組み合わされたことを認識する。画像データ生成手段は、再び外形画像データ7を生成し、投影手段2がこれを投影空間に投影する。   When the disassembled parts 3a and 3b are reassembled, the positions of the plane part 4a of the part 3a and the plane part 4b of the part 3b spatially coincide with each other. Recognize that they are combined in a spherical shape. The image data generation unit generates the external shape image data 7 again, and the projection unit 2 projects this onto the projection space.

本実施例の三次元表示装置1は、組み合わせ型スクリーン3を構成する部品3a,3bが分解された場合には、内臓の外形画像7a,7bと断面画像8a,8bとを投影することができる。これにより、それぞれの部品3a,3bの中に、あたかも実物大の内臓が切断されて埋め込まれているかのような視覚効果をもたらすことが可能である。部品3a,3bの平面部分4a,4bに内臓の断面画像8a,8bを投影することで、従来の三次元表示装置では観察が困難であった内部の画像を、詳細に観察することが可能となる。   The three-dimensional display device 1 according to the present embodiment can project internal images 7a and 7b and cross-sectional images 8a and 8b when the components 3a and 3b constituting the combination screen 3 are disassembled. . Thereby, it is possible to bring about a visual effect as if a full-size internal organ is cut and embedded in each of the parts 3a and 3b. By projecting the internal cross-sectional images 8a and 8b onto the planar portions 4a and 4b of the parts 3a and 3b, it is possible to observe in detail the internal images that were difficult to observe with a conventional three-dimensional display device. Become.

(第2実施例) 本実施例の三次元表示装置に用いられる組み合わせ型スクリーン15を図4に示す。組み合わせ型スクリーン15は、部品3a,3bを備えている。部品3a,3bの間には、ヒンジ16が設けられており、このヒンジ16の配設部には、図示されない回転センサが接続されている。回転センサは、部品3aに対する部品3bの角度を出力することができる。位置姿勢センサ10は部品3aのみに固定されており、部品3aの正確な位置姿勢を出力する。第1実施例と同一の構成を有するものについては、同一符号を付して重複説明を割愛する。 Second Example FIG. 4 shows a combination screen 15 used in the three-dimensional display device of this example. The combination type screen 15 includes parts 3a and 3b. A hinge 16 is provided between the components 3a and 3b, and a rotation sensor (not shown) is connected to the portion where the hinge 16 is disposed. The rotation sensor can output the angle of the component 3b with respect to the component 3a. The position / orientation sensor 10 is fixed only to the component 3a, and outputs an accurate position / orientation of the component 3a. Components having the same configuration as in the first embodiment are denoted by the same reference numerals and redundant description is omitted.

本実施例の画像データ生成手段は、部品3aに取り付けられた位置姿勢センサ10からの入力と、回転センサの入力に基づいて、部品3aと部品3bの正確な位置姿勢を算出する。位置姿勢センサ10は、6自由度の正確な位置姿勢を出力することができる一方で非常に高価であるが、本実施例における画像データ生成手段は、一方の位置姿勢センサ10の代わりに、角度センサからの角度の入力を受けて、部品3aと部品3bの相対的な位置関係を正確に把握することが可能となる。即ち、三次元表示装置全体で使用する位置姿勢センサ10の数をより減ずることが可能となる。   The image data generation means of the present embodiment calculates the accurate position and orientation of the component 3a and the component 3b based on the input from the position and orientation sensor 10 attached to the component 3a and the input of the rotation sensor. The position / orientation sensor 10 can output an accurate position / orientation with six degrees of freedom, but is very expensive. However, the image data generation unit in this embodiment uses an angle instead of the one position / orientation sensor 10. By receiving the angle input from the sensor, it is possible to accurately grasp the relative positional relationship between the component 3a and the component 3b. That is, it is possible to further reduce the number of position and orientation sensors 10 used in the entire 3D display device.

本実施例の組み合わせ型スクリーン15は、部品3a,3bがヒンジ16で接続されていることで、操作がしやすくなり、一方の紛失の恐れがなく、再組み立てが容易である。   The combination type screen 15 of this embodiment is easy to operate because the parts 3a and 3b are connected by the hinge 16, and there is no risk of losing one of them, and reassembly is easy.

(第3実施例) 本実施例の三次元表示装置における画像データ生成手段は、組み合わせ型スクリーンに投影する仮想物体を生成する。仮想物体は、実空間の所定の位置に固定するか、或いは組み合わせ型スクリーンに追従するように移動するかを、外部から入力によって切り替えることができる。そして、本実施例の三次元表示装置は、仮想物体の固定と追従を切り替えるための入力手段としての図示されないフットスイッチを備えている。又、組み合わせ型スクリーンの分解と再組み立てを認識する手段として、接触センサを平面部分4a,4bに備えている。その他の構成については、第1実施例と同一であり、同一符号を付して重複説明を割愛する。 (Third Embodiment) The image data generating means in the three-dimensional display device of the present embodiment generates a virtual object to be projected on a combination screen. Whether the virtual object is fixed at a predetermined position in the real space or moves so as to follow the combination screen can be switched by an input from the outside. The three-dimensional display device according to the present embodiment includes a foot switch (not shown) as input means for switching between fixing and following the virtual object. In addition, as a means for recognizing disassembly and reassembly of the combination type screen, a contact sensor is provided in the plane portions 4a and 4b. About another structure, it is the same as that of 1st Example, attaches | subjects the same code | symbol and omits duplication description.

本実施例の画像データ生成手段は、起動直後には、組み合わせ型スクリーン3の移動に応じて移動する仮想物体を生成する。画像を固定する指令をフットスイッチから入力された場合には、指令を受けた時点での投影位置に、仮想物体を固定する。再びフットスイッチからの指令を受けた場合には、画像データ生成手段は、画像を組み合わせ型スクリーン3の移動に追従させて仮想物体を移動させる。   The image data generation unit of the present embodiment generates a virtual object that moves according to the movement of the combination screen 3 immediately after activation. When a command for fixing the image is input from the foot switch, the virtual object is fixed at the projection position when the command is received. When receiving a command from the foot switch again, the image data generating means moves the virtual object by causing the image to follow the movement of the combination screen 3.

画像データ生成手段は、仮想物体が実空間に固定されている場合と、組み合わせ型スクリーン3に追従して移動している場合のいずれの状況であっても、仮想物体の中のどの部分が、部品3aと部品3bの接合箇所に対応しているかを常に算出している。そして、組み合わせ型スクリーン3が分解されたことが接触センサの出力によって認識されると、分解の直前に算出されていた仮想物体の接合対応部分の位置データを用い、この面による内臓のボリュームデータの断面を、新たに投影空間に露出した平面部分4aと平面部分4bに投影する。   The image data generation means can determine which part of the virtual object is in any situation when the virtual object is fixed in the real space and when the virtual object is moving following the combination screen 3. Whether the part 3a and the part 3b are joined is always calculated. When it is recognized by the output of the contact sensor that the combination type screen 3 has been disassembled, the position data of the joint corresponding portion of the virtual object calculated immediately before the disassembly is used, and The cross section is projected onto the plane part 4a and the plane part 4b newly exposed in the projection space.

本実施例の三次元表示装置は、フットスイッチという入力手段によって、仮想物体を、実空間に固定するか、スクリーン3の移動に追従して移動するかを随時選択することができる。そして、仮想物体が投影されている状態で組み合わせ型スクリーン3を分解することで、新たに投影空間に露出された平面部分4a,4bに、任意の位置における内臓の断面を表示することが可能である。仮想物体の移動と固定が可能であることから、組み合わせ型スクリーン3を分解したときに投影される仮想物体の観察が最も容易となるように、仮想物体の位置姿勢を組み合わせ型スクリーン3に対して細かく調整することが可能となる。   The three-dimensional display device of the present embodiment can select at any time whether the virtual object is fixed in the real space or moves following the movement of the screen 3 by an input means called a foot switch. Then, by disassembling the combination screen 3 in a state where a virtual object is projected, it is possible to display a cross-section of the internal organs at an arbitrary position on the plane portions 4a and 4b newly exposed to the projection space. is there. Since the virtual object can be moved and fixed, the position and orientation of the virtual object with respect to the combined screen 3 are set so that the virtual object projected when the combined screen 3 is disassembled is most easily observed. Fine adjustment is possible.

(第4実施例) 本実施例の三次元表示装置に用いられる組み合わせ型スクリーンを図5に示す。本実施例のスクリーン物体20は、27個の合同な立方体の部品21が分解と再組み立て可能に組み合わされて構成されている。それぞれの部品21には、位置姿勢センサが内蔵されており、画像データ生成手段は、位置姿勢センサによって、27個の部品のそれぞれの正確な位置を算出している。 (Fourth Embodiment) FIG. 5 shows a combination type screen used in the three-dimensional display device of the present embodiment. The screen object 20 of this embodiment is configured by combining 27 congruent cubic parts 21 so that they can be disassembled and reassembled. Each component 21 has a built-in position / orientation sensor, and the image data generation means calculates the exact position of each of the 27 components by the position / orientation sensor.

本実施例における画像データ生成手段は、スクリーン物体20に投影するために、細胞のボリュームデータを予め記憶している。図5に示すようにスクリーン物体20が組み合わされている場合には、画像データ生成手段は、拡大された細胞の外形画像22データを作成し、投影手段2がこれを投影する。部品21の一部が分解された場合には、画像データ生成手段は、図6に示すように、新たに露出した部品21の表面の位置に対応する、細胞の内部を示す断面画像データ23を作成し、投影手段がこれを投影する。   The image data generation means in this embodiment stores cell volume data in advance for projection onto the screen object 20. As shown in FIG. 5, when the screen object 20 is combined, the image data generating means creates enlarged cell outline image 22 data, and the projecting means 2 projects this. When a part of the component 21 is disassembled, the image data generating means generates the cross-sectional image data 23 indicating the inside of the cell corresponding to the position of the surface of the newly exposed component 21 as shown in FIG. Create and project this by the projection means.

(第5実施例) 本実施例の三次元表示装置に用いられる組み合わせ型スクリーンを図7に示す。本実施例のスクリーン物体30は、ほぼ実物大の成人の頭部を模しており、頭部の上下方向を中心軸とする輪切り状に形成された複数の部品31〜36から構成されている。部品31〜36は、投影空間6に固定されている軸部材37に回転可能に連結されている。軸部材37と、部品31〜36の連結部には、回転センサ38が配設されており、部品31〜36のうちいずれの部品が、どのような角度で回転移動したかを検出している。 Fifth Example FIG. 7 shows a combination screen used in the three-dimensional display device of this example. The screen object 30 of the present embodiment imitates the head of a substantially full-sized adult, and is composed of a plurality of parts 31 to 36 formed in a ring shape with the vertical direction of the head as the central axis. . The components 31 to 36 are rotatably connected to a shaft member 37 fixed to the projection space 6. A rotation sensor 38 is disposed at a connecting portion between the shaft member 37 and the parts 31 to 36, and detects which part of the parts 31 to 36 is rotated at what angle. .

本実施例における画像データ生成手段は、スクリーン物体30の部品31〜36の正確な形状のデータと、脳の外形及び内部についての詳細なボリュームデータを予め記憶している。そして、複数の部品31〜36が全て組み合わされて成人の頭部を形成しているとき、画像データ生成手段は、スクリーン物体30に重畳表示するための仮想物体として脳の外形39を生成して投影手段2がこれを投影する。投影された仮想物体は、視点センサ12を装着した観察者からは、スクリーン物体30の内部に埋め込まれているように認識される。   The image data generation means in the present embodiment stores in advance accurate shape data of the parts 31 to 36 of the screen object 30 and detailed volume data about the outer shape and the inside of the brain. When the plurality of components 31 to 36 are all combined to form an adult head, the image data generation unit generates a brain outline 39 as a virtual object to be superimposed on the screen object 30. The projection means 2 projects this. The projected virtual object is recognized as being embedded in the screen object 30 by the observer wearing the viewpoint sensor 12.

画像データ生成手段は、仮想物体の中の、部品31〜36の接合位置に対応する断面を予め算出している。図8に示すように、画像データ生成手段は、回転センサ38の出力によって、部品31〜36のいずれかが回転移動されて新たに平面部分が投影空間に露出したことが認識された場合、脳のボリュームデータから断面作成位置でデータを抽出して、露出された平面部分に投影するための脳の断面40を生成する。   The image data generation means calculates in advance a cross section corresponding to the joining position of the parts 31 to 36 in the virtual object. As shown in FIG. 8, when it is recognized by the output of the rotation sensor 38 that one of the components 31 to 36 is rotationally moved and the plane portion is newly exposed to the projection space, The data is extracted from the volume data at the cross-section creation position, and a brain cross-section 40 for projection onto the exposed plane portion is generated.

本実施例におけるスクリーン物体30は、部品31〜36が投影空間6に固定されている軸部材37に回転可能な状態で接続されており、その変位が規制されている。スクリーン物体30がばらばらにならないために、操作性がよく、紛失の恐れがなく、部品31〜36を軸部材37の周りに360度回転させるだけで容易に元の位置に組み合わせることが可能である。   In the present embodiment, the screen object 30 is connected to a shaft member 37 in which the components 31 to 36 are fixed to the projection space 6 in a rotatable state, and the displacement thereof is restricted. Since the screen object 30 does not fall apart, the operability is good, there is no risk of loss, and the components 31 to 36 can be easily assembled in their original positions simply by rotating 360 degrees around the shaft member 37. .

(第6実施例) 本実施例の三次元表示装置に用いられる組み合わせ型スクリーンを図9に示す。本実施例のスクリーン物体41は、車両のエンジンの形状を模している。部品42は、エンジンの外カバーを模した形状を備えており、他の部品であるクランク43,シリンダヘッド44と共に、分解と再組み立てが可能となっている。部品42,43,44を含む全ての部品には、位置姿勢センサが固定されており、個々の正確な部品の位置と姿勢を表すデータが出力される。 (6th Example) The combination type screen used for the three-dimensional display apparatus of a present Example is shown in FIG. The screen object 41 of the present embodiment mimics the shape of a vehicle engine. The part 42 has a shape imitating the outer cover of the engine, and can be disassembled and reassembled together with the crank 43 and the cylinder head 44 which are other parts. Position and orientation sensors are fixed to all the components including the components 42, 43, and 44, and data representing the position and orientation of each accurate component is output.

本実施例における画像データ生成手段は、スクリーン物体41の多数の部品の正確な形状のデータと、個々の部品の正確な外表面の画像データを予め記憶している。本実施例における画像データ生成手段は、個々の部品の取り外しに応じた画像を生成することができる。即ち、分解前には、一のスクリーン物体が模している実物体全体の表示を行い、部品が取り外された場合には、実物体から対応する部品が外された状態の画像を生成することを特徴とする。図10に、部品42が取り外された場合に、スクリーン物体41を構成している残りの部品に対して、画像データ生成手段が生成して投影手段2が投影する画像を模式的に示す。このように、1つずつ部品を分解していくことにより、観察者はスクリーン物体40が模しているエンジンの部品を一つずつ外していった場合の形状と、それに対応する部品を模した詳細な画像を確認することができる。最終的には、エンジンの最奥部を視覚的に確認することができる。   The image data generation means in the present embodiment stores in advance accurate shape data of a large number of parts of the screen object 41 and accurate external surface image data of individual parts. The image data generation means in the present embodiment can generate an image according to the removal of individual parts. That is, before disassembling, the entire real object imitated by one screen object is displayed, and when a part is removed, an image with the corresponding part removed from the real object is generated. It is characterized by. FIG. 10 schematically shows an image generated by the image data generation means and projected by the projection means 2 for the remaining parts constituting the screen object 41 when the part 42 is removed. In this way, by disassembling the parts one by one, the observer imitated the shape and the corresponding parts when the engine parts imitated by the screen object 40 were removed one by one. Detailed images can be confirmed. Eventually, the innermost part of the engine can be visually confirmed.

(第7実施例) 本実施例に使用されるスクリーン物体50を図11、図12,図13に示す。本実施例のスクリーン物体50は、64個の四角錐の特定の辺が連結されて構成されている。図11に示されるスクリーン物体の表面52は、図12では全て内包されており、図12の新たに露出した表面53には、表面52と全く異なる画像が投影される。更に、図12に示されるスクリーン物体52を上下に取り外すことで、部品50a、50bに分解することが可能であり、分割後にそれぞれを組み立てることで、図13に示す多角形が形成される。図13の多角形には、更に異なる画像を投影してその視覚効果を楽しむことができる。 (7th Example) The screen object 50 used for a present Example is shown in FIG.11, FIG.12, FIG.13. The screen object 50 of the present embodiment is configured by connecting specific sides of 64 square pyramids. The entire surface 52 of the screen object shown in FIG. 11 is included in FIG. 12, and an image completely different from the surface 52 is projected onto the newly exposed surface 53 of FIG. Furthermore, by removing the screen object 52 shown in FIG. 12 up and down, it can be disassembled into parts 50a and 50b, and the polygons shown in FIG. 13 are formed by assembling each of them after the division. A different image can be projected onto the polygon in FIG. 13 to enjoy the visual effect.

以上、実施例において本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、画像データ生成手段が生成する仮想物体を、実空間の所定の位置に固定するか、或いはスクリーン物体の移動に追従させるかを切り替える為の入力手段は、フットスイッチだけではなく、スクリーン物体の表面に配置する圧力スイッチを用いることができる。観察者は、移動や回転を行った後にスクリーンを加圧することで、仮想物体の固定と追従とを切り替えることが可能となる。その他、スクリーン全体の形状や、組み合わせる部品の形状、投影する画像が模している仮想物体の種類についても、任意に選定が可能である。   As mentioned above, although the specific example of this invention was described in detail in the Example, these are only illustrations and do not limit a claim. The technology described in the claims includes various modifications and changes of the specific examples illustrated above. For example, the input means for switching whether the virtual object generated by the image data generation means is fixed at a predetermined position in the real space or to follow the movement of the screen object is not only a foot switch but also a screen object. A pressure switch placed on the surface can be used. The observer can switch between fixing and following the virtual object by pressurizing the screen after moving or rotating. In addition, the shape of the entire screen, the shape of the parts to be combined, and the type of virtual object imitated by the projected image can be arbitrarily selected.

本発明は、人体をはじめとするその他生物の内部の構成を検討することが可能であり、教育訓練や手術の手法の検討といった分野に活用することができる。又、前記の用途以外にも、全体の形状と任意の断面形状や内部形状とを関連づけて観察したい物品に対して適用が可能である。更に、例えば手でスクリーン物体の分解と再組み立てを行った場合に、再組み立て後に新たな仮想物体が投影されることを楽しむ体験型ゲーム機器等に適用することが可能である。   INDUSTRIAL APPLICABILITY The present invention can examine the internal configuration of other living organisms including the human body, and can be used in fields such as educational training and examination of surgical techniques. In addition to the above applications, the present invention can be applied to an article to be observed by associating the overall shape with an arbitrary cross-sectional shape or internal shape. Furthermore, for example, when a screen object is disassembled and reassembled by hand, it can be applied to an experiential game machine that enjoys projection of a new virtual object after reassembly.

第1本実施例に係る三次元表示装置1の構成を模式的に示す図である。It is a figure which shows typically the structure of the three-dimensional display apparatus 1 which concerns on a 1st present Example. 第1実施例の組み合わせ型スクリーン3が組み合わされている場合に投影される外形画像データ7を示す図である。It is a figure which shows the external shape image data 7 projected when the combination type screen 3 of 1st Example is combined. 第1実施例の組み合わせ型スクリーン3が分解されている場合に投影される外形画像データ7a,7bと断面画像データ8a,8bとを示す図である。It is a figure which shows the external shape image data 7a and 7b and cross-sectional image data 8a and 8b which are projected when the combination type screen 3 of 1st Example is decomposed | disassembled. 第2本実施例の三次元表示装置に用いられる組み合わせ型スクリーン15の構成を模式的に示す図である。It is a figure which shows typically the structure of the combination type screen 15 used for the three-dimensional display apparatus of a 2nd Example. 第4本実施例の三次元表示装置に用いられる組み合わせ型スクリーン20の構成と、スクリーン20が組み合わされている場合に投影される外形画像22を示す図である。It is a figure which shows the external shape image 22 projected when the structure of the combination type screen 20 used for the three-dimensional display apparatus of a 4th Example and the screen 20 are combined. 第4本実施例の三次元表示装置の組み合わせ型スクリーン20が分解されている場合に投影される断面画像データ23を示す図である。It is a figure which shows the cross-sectional image data 23 projected when the combination type screen 20 of the three-dimensional display apparatus of a 4th Example is decomposed | disassembled. 第5本実施例の三次元表示装置に用いられる組み合わせ型スクリーン30の構成と、スクリーン30が組み合わされている場合に投影される脳の外形画像データ39を示す図である。It is a figure which shows the structure of the combination type screen 30 used for the three-dimensional display apparatus of a 5th Example, and the external shape image data 39 of the brain projected when the screen 30 is combined. 第5本実施例の三次元表示装置に用いられる組み合わせ型スクリーン30の構成と、スクリーン30が分解されている場合に投影される脳の外形画像データ39と脳の断面データ40を示す図である。It is a figure which shows the structure of the combination type screen 30 used for the three-dimensional display apparatus of a 5th Example, the external shape image data 39 of the brain projected when the screen 30 is decomposed | disassembled, and the cross-sectional data 40 of a brain. . 第6実施例の三次元表示装置に用いられるエンジンを模した組み合わせ型スクリーン41の構成とそこに投影される画像を模式的に示す図である。It is a figure which shows typically the structure of the combination type screen 41 which imitated the engine used for the three-dimensional display apparatus of 6th Example, and the image projected there. 第6実施例の組み合わせ型スクリーン41から部品42を取り除いたときに投影される画像を模式的に示す図である。It is a figure which shows typically the image projected when the components 42 are removed from the combination type screen 41 of 6th Example. 第7実施例の組み合わせ型スクリーン50において、表面52が露出している状態を示す図である。In the combination type screen 50 of 7th Example, it is a figure which shows the state in which the surface 52 is exposed. 第7実施例の組み合わせ型スクリーン50において、表面53が露出している状態を示す図である。In the combination type screen 50 of 7th Example, it is a figure which shows the state in which the surface 53 is exposed. 第7実施例の組み合わせ型スクリーン50において、スクリーンが分割されて部品50a,50bがそれぞれ別個に組み立てられている状態を示す図である。In the combination type screen 50 of 7th Example, it is a figure which shows the state by which the screen was divided | segmented and components 50a and 50b were each assembled separately.

符号の説明Explanation of symbols

1 三次元表示装置
2 投影手段
3,15,20,30,41,50 組み合わせ型スクリーン
3a,3b,21,31,32,33,34,35,36,42,43,44,50a,50b 部品
4a,4b 平面部分
5a,5b 球面部分
6 投影空間
7,22 外形画像データ
8,23 断面画像データ
9 コンピュータ
10 スクリーン位置姿勢センサ
12 視点位置センサ
14 磁界発生源
16 ヒンジ
37 軸部材
38 回転センサ
39 脳の外形
40 脳の断面

DESCRIPTION OF SYMBOLS 1 3D display apparatus 2 Projection means 3, 15, 20, 30, 41, 50 Combination type screen 3a, 3b, 21, 31, 32, 33, 34, 35, 36, 42, 43, 44, 50a, 50b Parts 4a, 4b Plane portion 5a, 5b Spherical portion 6 Projection space 7, 22 Outline image data 8, 23 Cross-sectional image data 9 Computer 10 Screen position / orientation sensor 12 View point position sensor 14 Magnetic field generation source 16 Hinge 37 Shaft member 38 Rotation sensor 39 Brain The outline of the brain 40

Claims (7)

三次元形状を有するスクリーン物体に画像を投影して表示する三次元表示装置であって、
前記スクリーン物体に投影する画像データを生成する画像データ生成手段と、
前記画像データ生成手段により生成された画像データを投影する画像投影手段と、
画像データ生成手段に入力するための前記スクリーン物体の位置及び姿勢を測定する位置姿勢センサとを備えており、
前記スクリーン物体は、複数の部品で構成されており、分解と再組み立てが可能であって、
前記画像データ生成手段は、前記位置姿勢センサからの入力データに基づいてスクリーン物体の部品の位置と姿勢とを計算しており、スクリーン物体の分解によってそれまで内包されていた部品の表面が前記画像投影手段の投影空間に新たに露出されたことが認識されると、分解前に投影されていた画像が表示する物体の内部画像を新たに露出された部品の表面の位置に生成し、
前記画像投影手段は、前記スクリーン物体の分解に応じた画像を投影することを特徴とする三次元表示装置。
A three-dimensional display device that projects and displays an image on a screen object having a three-dimensional shape,
Image data generating means for generating image data to be projected onto the screen object;
Image projection means for projecting the image data generated by the image data generation means;
A position and orientation sensor that measures the position and orientation of the screen object for input to the image data generation means,
The screen object is composed of a plurality of parts and can be disassembled and reassembled,
The image data generation means calculates the position and orientation of the part of the screen object based on the input data from the position and orientation sensor, and the surface of the part that has been included so far by the decomposition of the screen object is the image. When it is recognized that it has been newly exposed in the projection space of the projection means, an internal image of the object displayed by the image projected before the decomposition is generated at the position of the surface of the newly exposed part,
The three-dimensional display device, wherein the image projecting unit projects an image according to the decomposition of the screen object.
スクリーン物体を構成する複数の部品が、ヒンジによって接続されていることを特徴とする請求項1に記載の三次元表示装置。   The three-dimensional display device according to claim 1, wherein a plurality of parts constituting the screen object are connected by a hinge. ヒンジ配設部に角度センサが取り付けられていることを特徴とする請求項2に記載の三次元表示装置。   The three-dimensional display device according to claim 2, wherein an angle sensor is attached to the hinge arrangement portion. 複数の部品によって一のスクリーン物体が構成されており、
位置姿勢センサは、前記部品毎に取り付けられており、
画像データ生成手段は、前記部品の取り外しに応じた画像を生成することを特徴とする請求項1記載の三次元表示装置。
One screen object is composed of multiple parts,
The position and orientation sensor is attached to each component,
The three-dimensional display device according to claim 1, wherein the image data generation unit generates an image corresponding to the removal of the component.
画像データ生成手段は、実空間の所定の位置に固定される固定画像を生成しており、
スクリーン物体の分解位置に応じて画像を生成することを特徴とする請求項1乃至4の何れかに記載の三次元表示装置。
The image data generating means generates a fixed image fixed at a predetermined position in the real space,
The three-dimensional display device according to claim 1, wherein an image is generated according to a decomposition position of the screen object.
画像データ生成手段は、スクリーン物体の位置に追従して移動する移動画像を生成しており、
スクリーン物体の分解位置に応じて画像を生成することを特徴とする請求項1乃至4の何れかに記載の三次元表示装置。
The image data generation means generates a moving image that moves following the position of the screen object,
The three-dimensional display device according to claim 1, wherein an image is generated according to a decomposition position of the screen object.
画像データ生成手段により生成される画像を、実空間の所定の位置に固定するか、スクリーン物体の位置に追従して移動するかを切り替えるスイッチ手段を更に備えていることを特徴とする請求項5又は6に記載の三次元表示装置。   6. A switch means for switching whether the image generated by the image data generation means is fixed at a predetermined position in the real space or moves following the position of the screen object. Or the three-dimensional display apparatus of 6.
JP2008060446A 2008-03-11 2008-03-11 3D display device Expired - Fee Related JP5024766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008060446A JP5024766B2 (en) 2008-03-11 2008-03-11 3D display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008060446A JP5024766B2 (en) 2008-03-11 2008-03-11 3D display device

Publications (2)

Publication Number Publication Date
JP2009216958A true JP2009216958A (en) 2009-09-24
JP5024766B2 JP5024766B2 (en) 2012-09-12

Family

ID=41188890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008060446A Expired - Fee Related JP5024766B2 (en) 2008-03-11 2008-03-11 3D display device

Country Status (1)

Country Link
JP (1) JP5024766B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085641A (en) * 2006-09-27 2008-04-10 Gifu Univ Three-dimensional image display
JP2010140259A (en) * 2008-12-11 2010-06-24 Fuji Xerox Co Ltd Information processing apparatus, and information processing system and program
JP2011254411A (en) * 2010-06-04 2011-12-15 Hokkaido Univ Video projection system and video projection program
JP2012078730A (en) * 2010-10-06 2012-04-19 Casio Comput Co Ltd Sphere projection display device
JP2015506121A (en) * 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー System and method for 3D projection mapping with robot controlled objects
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
JP2018036813A (en) * 2016-08-31 2018-03-08 ソニー株式会社 Information processing system, information processing method, and program
WO2020217348A1 (en) * 2019-04-24 2020-10-29 三菱電機エンジニアリング株式会社 Image projection system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265061A (en) * 2006-03-29 2007-10-11 Gifu Univ Section visualization device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265061A (en) * 2006-03-29 2007-10-11 Gifu Univ Section visualization device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008085641A (en) * 2006-09-27 2008-04-10 Gifu Univ Three-dimensional image display
JP4660771B2 (en) * 2006-09-27 2011-03-30 国立大学法人岐阜大学 3D image display device
JP2010140259A (en) * 2008-12-11 2010-06-24 Fuji Xerox Co Ltd Information processing apparatus, and information processing system and program
JP2011254411A (en) * 2010-06-04 2011-12-15 Hokkaido Univ Video projection system and video projection program
JP2012078730A (en) * 2010-10-06 2012-04-19 Casio Comput Co Ltd Sphere projection display device
US9472011B2 (en) 2011-11-16 2016-10-18 Google Inc. System and method for 3D projection mapping with robotically controlled objects
JP2015506121A (en) * 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー System and method for 3D projection mapping with robot controlled objects
JP2017079467A (en) * 2011-11-16 2017-04-27 ストーウェル・リンネル・エルエルシー System and method for 3d projection mapping with robotically controlled objects
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
US10447899B2 (en) 2011-11-16 2019-10-15 X Development Llc System and method for 3D projection mapping with robotically controlled objects
JP2018036813A (en) * 2016-08-31 2018-03-08 ソニー株式会社 Information processing system, information processing method, and program
WO2020217348A1 (en) * 2019-04-24 2020-10-29 三菱電機エンジニアリング株式会社 Image projection system
JPWO2020217348A1 (en) * 2019-04-24 2021-10-28 三菱電機エンジニアリング株式会社 Image projection system

Also Published As

Publication number Publication date
JP5024766B2 (en) 2012-09-12

Similar Documents

Publication Publication Date Title
JP5024766B2 (en) 3D display device
US10854098B1 (en) Adaptive visual overlay wound simulation
US9153146B2 (en) Method and system for simulation of surgical procedures
US20100167248A1 (en) Tracking and training system for medical procedures
CN112201131B (en) Simulator system for medical procedure training
US20170315364A1 (en) Virtual object display device, method, program, and system
JP6336930B2 (en) Virtual object display device, method, program, and system
Coleman et al. Virtual reality and laparoscopic surgery
CA2662318C (en) Immersive collaborative environment using motion capture, head mounted display, and cave
AU2002219760A1 (en) Method and system for simulation of surgical procedures
JP2011521318A (en) Interactive virtual reality image generation system
KR101816172B1 (en) The simulation system for training and the method thereof
Lahanas et al. Virtual reality-based assessment of basic laparoscopic skills using the Leap Motion controller
JP2011008350A (en) Image processing method and image processing apparatus
JP6521511B2 (en) Surgical training device
KR101092372B1 (en) Hybrid medical simulation system and method
JP2008134373A (en) Method and system of preparing biological data for operation simulation, operation simulation method, and operation simulator
KR101929656B1 (en) Method for the multisensory representation of an object and a representation system
Sherstyuk et al. Mixed reality manikins for medical education
Ayache et al. Simulation of endoscopic surgery
JP2008085641A (en) Three-dimensional image display
JP2004344491A (en) Virtual surgery simulation system
JP2009048237A (en) Image processor, and image processing method
Buń et al. Immersive educational simulation of medical ultrasound examination
CN111276022A (en) Gastroscope simulation operation system based on VR technique

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120611

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5024766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees