JP2018180840A - Head-mount display control device, operation method and operation program thereof, and image display system - Google Patents

Head-mount display control device, operation method and operation program thereof, and image display system Download PDF

Info

Publication number
JP2018180840A
JP2018180840A JP2017078064A JP2017078064A JP2018180840A JP 2018180840 A JP2018180840 A JP 2018180840A JP 2017078064 A JP2017078064 A JP 2017078064A JP 2017078064 A JP2017078064 A JP 2017078064A JP 2018180840 A JP2018180840 A JP 2018180840A
Authority
JP
Japan
Prior art keywords
display
image
user
option
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017078064A
Other languages
Japanese (ja)
Other versions
JP6774367B2 (en
Inventor
玲奈 加茂田
Rena Kamoda
玲奈 加茂田
岡部 雄生
Takeo Okabe
雄生 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017078064A priority Critical patent/JP6774367B2/en
Priority to EP18162363.8A priority patent/EP3388921A1/en
Priority to US15/928,729 priority patent/US10429941B2/en
Publication of JP2018180840A publication Critical patent/JP2018180840A/en
Application granted granted Critical
Publication of JP6774367B2 publication Critical patent/JP6774367B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head-mount display control device, operation method and operation program thereof, and an image display system capable of effectively avoiding a false recognition of a gesture operation, and of improving a usability.SOLUTION: In a recognizing unit of a control device and a processing unit thereof, a selection processing unit 85 executes a selection process of selecting, when a double-tap operation is recognized by an operation recognizing unit 80, one option among multiple options relating to a 3D image, and of changing the option to be selected in a cyclic manner every time the double-tap operation is recognized. A change processing unit 86 executes a change process of, when a tap-and-hold operation is recognized by the operation recognizing unit 80, changing the display scheme of the 3D image associated with the one option selected by the selection processing unit 85.SELECTED DRAWING: Figure 9

Description

本発明は、ヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システムに関する。   The present invention relates to a control device for a head mounted display, an operation method and an operation program thereof, and an image display system.

ユーザの頭部に装着されたヘッドマウントディスプレイ(以下、HMD(Head Mounted Display))にコンピュータグラフィックスを用いた仮想オブジェクトを表示させ、現実空間に存在する実在オブジェクトと同じように仮想オブジェクトをユーザに認識させる技術が知られている。   A virtual object using computer graphics is displayed on a head mounted display (hereinafter referred to as HMD (Head Mounted Display)) mounted on the head of the user, and the virtual object is displayed to the user like a real object existing in real space There is known a technology for making it recognize.

特許文献1には、仮想オブジェクトに対するユーザの手を用いた様々なジェスチャー操作を認識するHMDの制御装置が記載されている。この制御装置は、認識したジェスチャー操作に応じて、仮想オブジェクトの表示位置、表示サイズといった、仮想オブジェクトの表示態様を変更する変更処理を行っている。ジェスチャー操作には、人差し指の指先を横方向に移動させるスライド操作や、人差し指と親指の指先を接触させた状態(人差し指と親指の指先で仮想オブジェクトを掴んだ状態)で手を移動させるタップアンドホールド操作が例示されている。   Patent Document 1 describes an HMD control device that recognizes various gesture operations using a user's hand on a virtual object. The control device performs a change process of changing the display mode of the virtual object, such as the display position and the display size of the virtual object, according to the recognized gesture operation. For gesture operation, slide operation to move the fingertip of the index finger sideways, and tap and hold to move the hand in a state in which the index finger and the fingertip of the thumb are in contact (the virtual object is grasped by the index finger and the fingertip of the thumb) The operation is illustrated.

特許文献1に記載されているように、HMDを用いた技術では、ジェスチャー操作が操作入力方法としてしばしば採り入れられる。こうしたジェスチャー操作で仮想オブジェクトの表示態様を変更する変更処理を行わせるためには、変更処理の種類、あるいは変更処理の対象等の複数の選択肢のうちの1つの選択肢を選択するためのジェスチャー操作(以下、選択操作)と、選択操作で選択された1つの選択肢に付随する変更処理を実際に行わせるためのジェスチャー操作(以下、変更操作)の2種が必要となる。   As described in Patent Document 1, in the technique using an HMD, a gesture operation is often adopted as an operation input method. In order to perform the change process of changing the display mode of the virtual object by such gesture operation, a gesture operation for selecting one of a plurality of options such as the type of change process or the target of the change process ( Hereinafter, two types of a selection operation) and a gesture operation (hereinafter, change operation) for actually performing the change process associated with one option selected in the selection operation are required.

特許文献2は、HMDを用いた技術ではないが、ユーザと対面するディスプレイに表示された三次元立体画像への操作入力方法として、ジェスチャー操作を採り入れている。特許文献2では、手を前後方に素早く移動させる操作(以下、クリック操作、特許文献2ではクリック動作と表記)を選択操作としている。そして、クリック操作が認識される度に、選択する選択肢をサイクリックに切り替えている。選択肢には、変更処理の対象である複数の三次元立体画像、並びに変更処理の種類である三次元立体画像の表示位置、表示サイズ、および表示向きが例示されている。   Although patent document 2 is not a technique using HMD, it has adopted gesture operation as an operation input method to a three-dimensional stereoscopic image displayed on a display facing the user. In Patent Document 2, an operation of moving the hand forward and backward quickly (hereinafter, click operation, and in Patent Document 2, click operation) is a selection operation. Then, each time the click operation is recognized, the option to be selected is cyclically switched. The options include a plurality of three-dimensional stereoscopic images to be changed, and a display position, a display size, and a display direction of a three-dimensional stereoscopic image which is a type of the changing process.

また、特許文献2では、クリック操作の規定速度よりも遅い移動速度で手を前後方に移動させるスライド操作、およびディスプレイの表示面に沿って手を移動させるスライド操作を変更操作としている。ユーザは、上記のクリック操作で所望の三次元立体画像および変更処理の種類を選択した後、スライド操作を行う。これにより、三次元立体画像の表示位置、表示サイズ、あるいは表示向きの変更処理が行われる。   Further, in Patent Document 2, a change operation is a slide operation in which the hand is moved forward and backward at a moving speed slower than the specified speed of the click operation, and a slide operation in which the hand is moved along the display surface of the display. The user performs the slide operation after selecting the desired three-dimensional stereoscopic image and the type of change processing by the above-described click operation. Thereby, processing for changing the display position, display size, or display direction of the three-dimensional stereoscopic image is performed.

特開2014−071812号公報JP, 2014-071812, A 特開2005−322071号公報Unexamined-Japanese-Patent No. 2005-322071

ここで、選択操作と変更操作とは区別する必要がある。というのは、選択操作と変更操作のうちの一方が他方と誤認識された場合は、例えば選択操作をした筈であるのに変更処理が行われる等、ユーザの意図しない処理が行われてしまい、使い勝手が悪くなるためである。   Here, it is necessary to distinguish between the selection operation and the change operation. For example, when one of the selection operation and the change operation is erroneously recognized as the other, processing unintended by the user is performed, for example, the change processing is performed even though the selection operation has been performed. , Because it becomes inconvenient.

特許文献2では、選択操作であるクリック操作と、移動速度だけが異なるスライド操作を、変更操作に含めている。このため、クリック操作をスライド操作と誤認識して、三次元立体画像の表示位置、表示サイズ、または表示向きの変更処理が行われてしまったり、逆にスライド操作をクリック操作と誤認識して、変更処理の種類や対象が切り替わってしまったりといったことが起こり易く、使い勝手が悪くなるおそれがあった。   In patent document 2, the click operation which is selection operation, and the slide operation which differs only in moving speed are included in change operation. Therefore, the click operation is erroneously recognized as a slide operation, and processing for changing the display position, display size, or display direction of the three-dimensional stereoscopic image is performed, or conversely, the slide operation is erroneously recognized as a click operation. The type of change processing or the target is likely to be switched, and there is a possibility that the usability may deteriorate.

本発明は、ジェスチャー操作の誤認識を効果的に防止し、使い勝手を向上させることが可能なヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システムを提供することを目的とする。   An object of the present invention is to provide a control device of a head mounted display capable of effectively preventing erroneous recognition of a gesture operation and improving usability, an operation method and an operation program thereof, and an image display system. .

上記課題を解決するために、本発明のヘッドマウントディスプレイの制御装置は、ユーザの頭部に装着され、仮想空間をユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置において、三次元の仮想オブジェクトを仮想空間に表示させる表示制御部と、仮想オブジェクトに対するユーザの手を用いたジェスチャー操作を認識する操作認識部と、親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作がジェスチャー操作として認識された場合、仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、ダブルタップ操作が認識される度に、選択する選択肢をサイクリックに切り替える選択処理部と、手首、肘、肩のいずれかを支点として手を移動させるスライド操作がジェスチャー操作として認識された場合、選択処理部で選択された1つの選択肢に付随する、仮想オブジェクトの表示態様を変更する変更処理を行う変更処理部とを備える。   In order to solve the above problems, a control device for a head mounted display according to the present invention is a control device for a head mounted display mounted on the head of a user and controlling operation of the head mounted display for making the user recognize a virtual space. A display control unit for displaying a three-dimensional virtual object in a virtual space, an operation recognition unit for recognizing a gesture operation using the user's hand on the virtual object, and pressing at least one finger other than the thumb toward the thumb When double-tapping operation in which an operation to push up from 2 is performed twice consecutively is recognized as a gesture operation, one of a plurality of options relating to the virtual object is selected, and is selected each time the double-tapping operation is recognized A selection processing unit that switches options cyclically, wrists, elbows, and shoulders When a slide operation for moving a hand with one of the support points is recognized as a gesture operation, a change processing unit that performs change processing for changing the display mode of the virtual object accompanying the one option selected by the selection processing unit Equipped with

表示制御部は、複数の選択肢を順番に並べたメニューバーを仮想空間に表示し、メニューバーにおいて、選択処理部で選択された1つの選択肢をフォーカス表示することが好ましい。この場合、表示制御部は、ダブルタップ操作がジェスチャー操作として認識された場合にのみメニューバーを表示することが好ましい。また、表示制御部は、ユーザの視点位置にメニューバーを表示することが好ましい。   It is preferable that the display control unit displays a menu bar in which a plurality of options are arranged in order in the virtual space, and the menu bar focus-displays one option selected by the selection processing unit. In this case, the display control unit preferably displays the menu bar only when the double tap operation is recognized as a gesture operation. Preferably, the display control unit displays a menu bar at the viewpoint of the user.

選択肢は、変更処理の種類である、仮想オブジェクトの表示位置、表示サイズ、および表示向きであることが好ましい。   The options are preferably the display position, display size, and display orientation of the virtual object, which is the type of change processing.

仮想オブジェクトは複数の構造物を有し、選択肢は、変更処理の対象である複数の構造物であることが好ましい。この場合、変更処理部は、複数の構造物のうちの選択処理部で選択された1つの構造物の透過率を変更する透過率変更処理を変更処理として行うことが好ましい。   The virtual object preferably has a plurality of structures, and the option is preferably a plurality of structures to be subjected to the change process. In this case, it is preferable that the change processing unit performs, as the change processing, a transmittance change process of changing the transmittance of one of the plurality of structures selected by the selection processing unit.

仮想オブジェクトは、人体の三次元ボリュームレンダリング画像であることが好ましい。また、スライド操作は、2本の指の指先を接触させた状態で手を移動させるタップアンドホールド操作であることが好ましい。   The virtual object is preferably a three-dimensional volume rendered image of a human body. In addition, the slide operation is preferably a tap-and-hold operation in which the hand is moved in a state in which the fingertips of two fingers are in contact with each other.

本発明のヘッドマウントディスプレイの制御装置の作動方法は、ユーザの頭部に装着され、仮想空間をユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置の作動方法において、三次元の仮想オブジェクトを仮想空間に表示させる表示制御ステップと、仮想オブジェクトに対するユーザの手を用いたジェスチャー操作を認識する操作認識ステップと、親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作がジェスチャー操作として認識された場合、仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、ダブルタップ操作が認識される度に、選択する選択肢をサイクリックに切り替える選択処理ステップと、手首、肘、肩のいずれかを支点として手を移動させるスライド操作がジェスチャー操作として認識された場合、選択処理ステップで選択された1つの選択肢に付随する、仮想オブジェクトの表示態様を変更する変更処理を行う変更処理ステップとを備える。   The method of operating the control device of the head mounted display according to the present invention is a method of operating the control device of the head mounted display mounted on the head of the user and controlling the operation of the head mounted display for making the user recognize the virtual space. Control step for displaying the virtual object in the virtual space, an operation recognition step for recognizing a gesture operation using the user's hand on the virtual object, and pushing at least one finger other than the thumb toward the thumb and pushing it up When a double tap operation in which the operation is performed twice consecutively is recognized as a gesture operation, one option is selected from the plurality of options related to the virtual object, and the option to be selected each time the double tap operation is recognized Selection processing steps to switch to cyclic, Change processing to change the display mode of the virtual object attached to one option selected in the selection processing step when the slide operation to move the hand with any of neck, elbow or shoulder as a fulcrum is recognized as a gesture operation And a change processing step of

本発明のヘッドマウントディスプレイの制御装置の作動プログラムは、ユーザの頭部に装着され、仮想空間をユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置の作動プログラムにおいて、三次元の仮想オブジェクトを仮想空間に表示させる表示制御機能と、仮想オブジェクトに対するユーザの手を用いたジェスチャー操作を認識する操作認識機能と、親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作がジェスチャー操作として認識された場合、仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、ダブルタップ操作が認識される度に、選択する選択肢をサイクリックに切り替える選択処理機能と、手首、肘、肩のいずれかを支点として手を移動させるスライド操作がジェスチャー操作として認識された場合、選択処理機能で選択された1つの選択肢に付随する、仮想オブジェクトの表示態様を変更する変更処理を行う変更処理機能とを、コンピュータに実行させる。   The operation program of the control device of the head mounted display according to the present invention is three-dimensional in the operation program of the control device of the head mounted display mounted on the head of the user and controlling the operation of the head mounted display for making the user recognize the virtual space. Control function to display the virtual object in the virtual space, an operation recognition function to recognize the gesture operation using the user's hand to the virtual object, and push at least one finger other than the thumb toward the thumb and push up When a double tap operation in which the operation is performed twice consecutively is recognized as a gesture operation, one option is selected from the plurality of options related to the virtual object, and the option to be selected each time the double tap operation is recognized With selection processing function to switch to cyclic, Change processing to change the display mode of the virtual object attached to one of the options selected by the selection processing function when a slide operation for moving the hand with one of the neck, elbow or shoulder as a fulcrum is recognized as a gesture operation And have the computer execute the change processing function to

また、本発明の画像表示システムは、ユーザの頭部に装着されるヘッドマウントディスプレイと、ヘッドマウントディスプレイの動作を制御する制御装置とを備え、ヘッドマウントディスプレイを通じて仮想空間をユーザに認識させる画像表示システムにおいて、三次元の仮想オブジェクトを仮想空間に表示させる表示制御部と、仮想オブジェクトに対するユーザの手を用いたジェスチャー操作を認識する操作認識部と、親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作がジェスチャー操作として認識された場合、仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、ダブルタップ操作が認識される度に、選択する選択肢をサイクリックに切り替える選択処理部と、手首、肘、肩のいずれかを支点として手を移動させるスライド操作がジェスチャー操作として認識された場合、選択処理部で選択された1つの選択肢に付随する、仮想オブジェクトの表示態様を変更する変更処理を行う変更処理部とを備える。   The image display system according to the present invention further includes a head mounted display mounted on the head of the user, and a control device for controlling the operation of the head mounted display, and displaying an image that makes the user recognize the virtual space through the head mounted display. In the system, a display control unit for displaying a three-dimensional virtual object in a virtual space, an operation recognition unit for recognizing a gesture operation using the user's hand on the virtual object, and at least one finger other than the thumb directed to the thumb If a double tap operation in which an operation after pressing and pushing up twice is performed twice consecutively is recognized as a gesture operation, one of a plurality of options regarding the virtual object is selected, and each time the double tap operation is recognized , To switch the choice to cyclic selection When a slide operation for moving the hand with one of the wrist, elbow, or shoulder as a fulcrum is recognized as a gesture operation, the display mode of the virtual object associated with one of the options selected by the selection processing unit is displayed. And a change processing unit that performs change processing to be changed.

本発明によれば、仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択するジェスチャー操作である選択操作を、親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作とし、仮想オブジェクトの表示態様を変更する変更処理を行わせるためのジェスチャー操作である変更操作を、手首、肘、肩のいずれかを支点として手を移動させるスライド操作とするので、ジェスチャー操作の誤認識を効果的に防止し、使い勝手を向上させることが可能なヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム、並びに画像表示システムを提供することができる。   According to the present invention, a selection operation, which is a gesture operation for selecting one of a plurality of options related to a virtual object, is pressed twice at least after pushing at least one finger other than the thumb toward the thumb. A slide operation for moving a hand with one of a wrist, an elbow, and a shoulder as a fulcrum as a change operation which is a gesture operation for performing a change process of changing the display mode of the virtual object as a double tap operation performed continuously Therefore, it is possible to provide a control device for a head mounted display, an operation method and an operation program thereof, and an image display system capable of effectively preventing erroneous recognition of a gesture operation and improving usability.

画像表示システムと画像蓄積サーバを示す図である。FIG. 2 is a diagram showing an image display system and an image storage server. 画像表示システムの外観斜視図である。1 is an external perspective view of an image display system. 画像表示システムを用いて対象患者の手術方針を検討する様子を示す図である。It is a figure which shows a mode that a surgical procedure of a target patient is examined using an image display system. 拡張現実空間の成り立ちを説明するための図である。It is a figure for demonstrating the formation of augmented reality space. 3D画像を構成するCTスキャン画像を示す図である。It is a figure which shows the CT scan image which comprises 3D image. 画像表示システムを用いて対象患者の手術方針を検討する大まかな流れを示すフローチャートである。It is a flow chart which shows a rough flow which considers a subject patient's operation plan using an image display system. 制御装置を構成するコンピュータのブロック図である。It is a block diagram of a computer which constitutes a control device. 制御装置のCPUの各機能部を示すブロック図である。It is a block diagram which shows each function part of CPU of a control apparatus. 認識部と処理部の詳細を示すブロック図である。It is a block diagram which shows the detail of a recognition part and a process part. 第1対応情報を示す図である。It is a figure which shows 1st corresponding information. 第1対応情報を示す図である。It is a figure which shows 1st corresponding information. 第1対応情報を示す図である。It is a figure which shows 1st corresponding information. 第1対応情報を示す図である。It is a figure which shows 1st corresponding information. 第1対応情報を示す図である。It is a figure which shows 1st corresponding information. 第1対応情報を示す図である。It is a figure which shows 1st corresponding information. 第2対応情報を示す図である。It is a figure which shows 2nd corresponding information. 第2対応情報を示す図である。It is a figure which shows 2nd corresponding information. アジャストモードにおける選択処理を示す図である。It is a figure which shows the selection process in adjustment mode. オブザーブモードにおける選択処理を示す図である。It is a figure which shows the selection process in observation mode. 3D画像の表示位置を移動する変更処理を示す図である。It is a figure which shows the change process which moves the display position of 3D image. 3D画像の表示サイズを縮小する変更処理を示す図である。It is a figure which shows the change process which reduces the display size of 3D image. 3D画像の表示向きを変更する処理を示す図である。It is a figure which shows the process which changes the display direction of a 3D image. 3D画像の選択された構造物の透過率を変更する処理を示す図である。FIG. 7 illustrates the process of changing the transmission of selected structures of a 3D image. アジャストモードにおける仮想画像の詳細を示す図である。It is a figure which shows the detail of the virtual image in adjustment mode. オブザーブモードにおける仮想画像の詳細を示す図である。It is a figure which shows the detail of the virtual image in observation mode. 制御装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a control apparatus. ダブルタップ操作が認識された場合にのみアジャストモード表示バーを表示する第2実施形態を示す図である。It is a figure which shows 2nd Embodiment which displays an adjustment mode display bar only, when double tap operation is recognized. ユーザの視点位置にアジャストモード表示バーを表示する第3実施形態を示す図である。It is a figure which shows 3rd Embodiment which displays an adjustment mode display bar on a user's viewpoint position. 画像表示システムの別の例を示す図である。It is a figure which shows another example of an image display system. 画像表示システムのさらに別の例を示す図である。It is a figure which shows another example of an image display system.

[第1実施形態]
図1において、画像表示システム10は、HMD11と制御装置12とが一体化されたものであり、例えば医療施設13のカンファレンス室14で用いられる。画像表示システム10はユーザ15の頭部に装着される。ユーザ15は、医療施設13に所属する医師や看護師といった医療スタッフである。なお、頭部とは、立位の状態で人体の頸部から上に位置する部分を言い、顔面等を含む部分である。
First Embodiment
In FIG. 1, the image display system 10 is an integrated HMD 11 and control device 12, and is used, for example, in the conference room 14 of the medical facility 13. The image display system 10 is mounted on the head of the user 15. The user 15 is a medical staff such as a doctor or a nurse who belongs to the medical facility 13. The head means a portion located above the neck of the human body in a standing position, and is a portion including a face and the like.

画像表示システム10は、例えばLAN(Local Area Network)等のネットワーク17を介して、画像蓄積サーバ19と相互に通信可能に接続されている。画像蓄積サーバ19は、例えば医療施設13のコンピュータ室18に設置されている。   The image display system 10 is communicably connected to the image storage server 19 via a network 17 such as a LAN (Local Area Network). The image storage server 19 is installed, for example, in the computer room 18 of the medical facility 13.

画像蓄積サーバ19は、医療施設13で取得した患者の様々な医療画像を蓄積する。医療画像には、CT(Computed Tomography)スキャン画像45(図5参照)を画像処理により再構成した三次元ボリュームレンダリング画像(以下、3D画像)40(図3参照)が含まれる。画像蓄積サーバ19は、個々の医療画像を識別するための画像ID、医療画像を撮影した患者を識別するための患者ID(Identification Data)、あるいは医療画像を撮影したモダリティの種類、撮影日時等を検索キーとした医療画像の検索が可能である。   The image storage server 19 stores various medical images of the patient acquired at the medical facility 13. The medical image includes a three-dimensional volume rendering image (hereinafter, 3D image) 40 (see FIG. 3) obtained by reconstructing a CT (Computed Tomography) scan image 45 (see FIG. 5) by image processing. The image storage server 19 uses an image ID for identifying each medical image, a patient ID (Identification Data) for identifying a patient who has taken a medical image, or a type of modality for taking a medical image, shooting date, etc. It is possible to search for a medical image as a search key.

画像蓄積サーバ19は、画像表示システム10からの検索キーを含む配信要求に応じて、検索キーに対応する医療画像を検索し、検索した医療画像を画像表示システム10に配信する。なお、図1では1つの画像表示システム10だけが画像蓄積サーバ19に接続されているが、実際には医療施設13には複数の画像表示システム10が配備され、画像蓄積サーバ19には複数の画像表示システム10が接続されている。   The image storage server 19 searches for a medical image corresponding to the search key in response to a distribution request including the search key from the image display system 10, and distributes the searched medical image to the image display system 10. Although only one image display system 10 is connected to the image storage server 19 in FIG. 1, a plurality of image display systems 10 are actually provided in the medical facility 13 and a plurality of image display systems 10 are provided in the image storage server 19. An image display system 10 is connected.

図2において、画像表示システム10は、本体部25と装着部26とで構成される。画像表示システム10の装着時、本体部25はユーザ15の眼前に位置し、装着部26はユーザ15の頭部の上半部に位置する。   In FIG. 2, the image display system 10 includes a main body 25 and a mounting unit 26. When the image display system 10 is attached, the main body 25 is located in front of the user 15, and the attachment 26 is located in the upper half of the user 15 's head.

本体部25は、保護枠27、スクリーン28、センサ部29、および制御部30を備えている。保護枠27はユーザ15の両眼全体を覆うように湾曲した1枚の透明板であり、例えば透明な色付きのプラスチックで形成される。スクリーン28は保護枠27の内側に配されている。スクリーン28はユーザ15の両眼のそれぞれに割り当てられており、中央には鼻当て31が設けられている。スクリーン28は、保護枠27と同様に透明な材料で形成される。このスクリーン28と保護枠27を通じて、ユーザ15は現実空間RS(図4参照)を肉眼で視認する。つまり画像表示システム10のHMD11は透過型である。   The main body unit 25 includes a protective frame 27, a screen 28, a sensor unit 29, and a control unit 30. The protective frame 27 is a single transparent plate that is curved so as to cover the entire eyes of the user 15, and is formed of, for example, a transparent colored plastic. The screen 28 is disposed inside the protective frame 27. The screen 28 is assigned to each of the eyes of the user 15, and a nose pad 31 is provided at the center. The screen 28 is formed of a transparent material like the protective frame 27. The user 15 visually recognizes the real space RS (see FIG. 4) through the screen 28 and the protective frame 27. That is, the HMD 11 of the image display system 10 is transmissive.

また、ユーザ15の眼と対向するスクリーン28の内面には、コンピュータグラフィックスを用いた仮想画像が投影部(図示せず)から投影表示される。投影部は、周知のように、仮想画像を表示する液晶等の表示素子と、表示素子に表示された仮想画像をスクリーン28の内面に向けて投影する投影光学系とで構成される。この場合、スクリーン28は、仮想画像を反射し、かつ現実空間RSの光を透過するハーフミラーで構成される。投影部は、所定のフレームレート(例えば60フレーム/秒)でスクリーン28の内面に仮想画像を投影表示する。仮想画像はスクリーン28の内面で反射してユーザ15の眼に入射する。これにより、ユーザ15は仮想画像を仮想空間VS(図4参照)上の虚像として認識する。なお、スクリーン28自体を液晶等の表示素子としてもよい。   In addition, a virtual image using computer graphics is projected and displayed from the projection unit (not shown) on the inner surface of the screen 28 facing the eye of the user 15. As well known, the projection unit is configured of a display element such as liquid crystal that displays a virtual image, and a projection optical system that projects the virtual image displayed on the display element toward the inner surface of the screen 28. In this case, the screen 28 is configured of a half mirror that reflects the virtual image and transmits light in the real space RS. The projection unit projects and displays a virtual image on the inner surface of the screen 28 at a predetermined frame rate (for example, 60 frames / second). The virtual image is reflected on the inner surface of the screen 28 and enters the eye of the user 15. Thereby, the user 15 recognizes the virtual image as a virtual image on the virtual space VS (see FIG. 4). The screen 28 itself may be a display element such as liquid crystal.

仮想画像には、拡張現実空間ARS(図3参照)において、現実空間RSに存在する実在オブジェクトと同じようにユーザ15が認識する仮想オブジェクトがある。仮想オブジェクトは、ここでは患者の上半身の3D画像40(図3参照)である。ユーザ15は、3D画像40に対して、自らの手37(図3参照)を用いたジェスチャー操作を行う。   The virtual image includes a virtual object that the user 15 recognizes in the augmented reality space ARS (see FIG. 3) in the same manner as a real object existing in the real space RS. The virtual object is here a 3D image 40 (see FIG. 3) of the upper body of the patient. The user 15 performs a gesture operation on the 3D image 40 using his / her hand 37 (see FIG. 3).

センサ部29はスクリーン28の上部に位置し、スクリーン28と同じく保護枠27で覆われている。センサ部29はHMD11に属し、画像表示システム10の使用状態を把握するための様々なセンサを備えている。センサは、画像表示システム10の使用周辺環境を空間認識するための複数台の赤外線エミッタと複数台の空間認識用カメラで構成される空間認識ユニット、カラー撮像素子を有するビデオカメラ、慣性計測ユニット(IMU;inertial measurement unit)等である。IMUは、加速度センサ、角速度センサ(ジャイロスコープ)、および方位センサ(磁力計)で構成され、ビデオカメラと協働して、ユーザ15の頭部の動きを追跡する、いわゆるヘッドトラッキングを実施する。   The sensor unit 29 is located at the top of the screen 28 and is covered with a protective frame 27 as with the screen 28. The sensor unit 29 belongs to the HMD 11 and includes various sensors for grasping the use state of the image display system 10. The sensor is a space recognition unit configured of a plurality of infrared emitters and a plurality of space recognition cameras for spatially recognizing the use peripheral environment of the image display system 10, a video camera having a color imaging device, an inertial measurement unit ( IMU (inertial measurement unit) etc. The IMU includes an acceleration sensor, an angular velocity sensor (gyroscope), and an orientation sensor (magnetometer), and cooperates with a video camera to perform so-called head tracking that tracks the movement of the head of the user 15.

センサ部29には、3D画像40に対するユーザ15の手37を用いたジェスチャー操作を認識するための赤外線エミッタとデプスセンサで構成されるジェスチャー操作認識ユニットも配されている。デプスセンサは、赤外線エミッタから発せられて手37を含む実在オブジェクトから反射される赤外光を検出して、ユーザ14の視点の奥行方向の現実空間RSの情報を得るセンサである。デプスセンサは、ユーザ15がHMD11を通じて認識する拡張現実空間ARSとほぼ同じ視野を、所定のフレームレート(例えば60フレーム/秒)で撮像する。ユーザ15は、このデプスセンサの視野内でジェスチャー操作を行う。   The sensor unit 29 is also provided with a gesture operation recognition unit configured of an infrared emitter and a depth sensor for recognizing a gesture operation using the hand 37 of the user 15 on the 3D image 40. The depth sensor is a sensor that detects infrared light emitted from an infrared emitter and reflected from a real object including the hand 37 to obtain information of the real space RS in the depth direction of the viewpoint of the user 14. The depth sensor images a field of view substantially the same as the augmented reality space ARS that the user 15 recognizes through the HMD 11 at a predetermined frame rate (for example, 60 frames / second). The user 15 performs a gesture operation within the field of view of the depth sensor.

また、センサ部29には、画像表示システム10の使用周辺環境の音声を収録するためのマイクロフォンも配されている。このマイクロフォンによって、ジェスチャー操作に加えて、音声操作も可能となる。なお、ここでは透過型のHMD11を例示したが、ビデオカメラで撮像した現実空間RSの撮像画像に仮想画像を重畳して、この重畳画像をスクリーン28の内面に投影表示する非透過型のHMDを用いてもよい。   The sensor unit 29 is also provided with a microphone for recording the sound of the use peripheral environment of the image display system 10. In addition to gesture operation, this microphone also enables voice operation. Here, although the transmissive HMD 11 is illustrated, a non-transmissive HMD that projects a superimposed image on the inner surface of the screen 28 by superimposing a virtual image on the captured image of the physical space RS captured by a video camera You may use.

制御部30は、本体部25の三日月状の天板の裏側に取り付けられている。制御部30には、センサ部29に配された各種センサのドライバ、内蔵バッテリからの電力を各部に供給する電力供給回路、画像蓄積サーバ19等の外部装置と無線通信を行う無線通信回路、ストレージデバイス55、メモリ56、これらを統括的に制御するCPU(Central Processing Unit)57(いずれも図7参照)等が設けられている。HMD11と制御装置12とが一体化された本実施形態の画像表示システム10では、この制御部30が制御装置12を構成する。   The control unit 30 is attached to the back side of the crescent-shaped top plate of the main body unit 25. The control unit 30 includes drivers of various sensors disposed in the sensor unit 29, a power supply circuit for supplying power from the built-in battery to each unit, a wireless communication circuit for wirelessly communicating with external devices such as the image storage server 19 and the like A device 55, a memory 56, and a central processing unit (CPU) 57 (see FIG. 7) for overall control of these devices are provided. In the image display system 10 of the present embodiment in which the HMD 11 and the control device 12 are integrated, the control unit 30 configures the control device 12.

装着部26は数センチ程度の幅を有する帯状であり、内側リング32と外側リング33とで構成される。内側リング32は切れ目のないO字状をしており、ユーザ15の頭部の上半部にフィットした状態で固定される。ユーザ15の頭部と接する内側リング32の内面には、ウレタンフォーム等の衝撃吸収パッドが取り付けられている。内側リング32は、ユーザ15の頭部に合わせてサイズを調整可能である。また、内側リング32は、所定移動範囲内で外側リング33に対して前後方に移動可能で、かつユーザ15の両耳を貫く軸を回転中心として、所定角度の範囲内で外側リング33に対して回転可能である。   The mounting portion 26 is in the shape of a band having a width of about several centimeters, and is composed of the inner ring 32 and the outer ring 33. The inner ring 32 has a continuous O-shape and is fixed in a state of being fitted to the upper half of the head of the user 15. On the inner surface of the inner ring 32 in contact with the head of the user 15, a shock absorbing pad such as urethane foam is attached. The inner ring 32 is adjustable in size to the head of the user 15. In addition, the inner ring 32 is movable forward and backward with respect to the outer ring 33 within a predetermined movement range, and with respect to the outer ring 33 within a predetermined angle range with an axis passing through both ears of the user 15 as a rotation center. Is rotatable.

外側リング33は後頭部側が切り欠かれたC字状をしている。外側リング33は、内側リング32のサイズ調整に応じて、初期位置から外側に撓んだり、撓んだ状態から初期位置に向けて内側に縮んだりする。   The outer ring 33 is C-shaped with the back of the head cut away. The outer ring 33 bends outward from the initial position or shrinks inward from the bent state toward the initial position according to the size adjustment of the inner ring 32.

ユーザ15の両耳に対峙する外側リング33の部分には、音声を出力するスピーカー34が設けられている(図2では左側のスピーカー34のみ図示)。また、図示は省略したが、スピーカー34の上部には、スピーカー34の音量の調整ボタンと、スクリーン28のバックライトの明るさ調整ボタンが設けられている。さらに、これも図示は省略したが、外側リング33の後頭部側の切り欠き部分には、電源ボタンとUSB(Universal Serial Bus)端子が設けられている。   At the portion of the outer ring 33 facing the user's 15 ears, a speaker 34 for outputting sound is provided (only the left speaker 34 is shown in FIG. 2). Although not shown, at the top of the speaker 34, there are provided a volume adjustment button for the speaker 34 and a brightness adjustment button for the backlight of the screen 28. Further, although not shown, a power button and a USB (Universal Serial Bus) terminal are provided in the cutout on the back of the outer ring 33 on the back of the head.

画像表示システム10は、電力供給回路を介した内蔵バッテリの電力で動作し、かつ無線通信回路で画像蓄積サーバ19等の外部装置と無線通信を行う。このため、画像表示システム10はワイヤレスで使用することが可能である。なお、外側リング33のUSB端子にUSBケーブルを接続して外部装置と有線接続することで、外部装置からの電力供給と、外部装置との有線通信が可能となる。   The image display system 10 operates with the power of the built-in battery via the power supply circuit, and performs wireless communication with an external device such as the image storage server 19 with a wireless communication circuit. Thus, the image display system 10 can be used wirelessly. By connecting a USB cable to the USB terminal of the outer ring 33 and connecting it to an external device by wire, power supply from the external device and wired communication with the external device become possible.

図3は、医療施設13のカンファレンス室14にいるユーザ15が、画像表示システム10を用いて、手術予定の患者(以下、対象患者)の手術方針を検討している様子を示す。ユーザ15は、HMD11を通じて拡張現実空間ARSを認識している。   FIG. 3 shows a state in which the user 15 in the conference room 14 of the medical facility 13 is using the image display system 10 to consider the surgery plan of a patient who is scheduled for surgery (hereinafter referred to as a target patient). The user 15 recognizes the augmented reality space ARS through the HMD 11.

カンファレンス室14にはテーブル36が設置されている。テーブル36の中央には、対象患者の上半身の仰向けの3D画像40が仮想オブジェクトとして表示されている。3D画像40は、現実空間RSにおける表示位置がテーブル36のほぼ中央に固定され、その体軸がテーブル36の長辺に沿い、かつ頸部がユーザ15の左側、腰部がユーザ15の右側となるように配置されている。   A table 36 is installed in the conference room 14. At the center of the table 36, a 3D image 40 of the upper surface of the upper body of the target patient is displayed as a virtual object. In the 3D image 40, the display position in the real space RS is fixed substantially at the center of the table 36, the body axis is along the long side of the table 36, the neck is the left side of the user 15, and the waist is the right side of the user 15. It is arranged as.

ユーザ15はテーブル36の一方の長辺のほぼ中央に立っている。ユーザ15はテーブル36に手(右手)37および指(人差し指)38を向けている。なお、3D画像40はあくまでも仮想オブジェクトであって、現実空間RSにおいては、テーブル36には3D画像40は存在しない。このため、図3のテーブル36上では3D画像40を破線で示している。   The user 15 stands approximately at the center of one long side of the table 36. The user 15 points a hand (right hand) 37 and a finger (index finger) 38 to the table 36. The 3D image 40 is only a virtual object, and the 3D image 40 does not exist in the table 36 in the real space RS. For this reason, the 3D image 40 is indicated by a broken line on the table 36 of FIG.

3D画像40の現実空間RSにおける表示位置がテーブル36のほぼ中央に固定されているため、ユーザ15の立ち位置に応じて、ユーザ15が認識する拡張現実空間ARSにおける3D画像40の見え方が異なる。具体的には、図3に示す立ち位置では、ユーザ15は、3D画像40の右半身が手前側、頸部が左側に見える。図3に示す立ち位置と反対側のテーブル36の他方の長辺側にユーザ15が立った場合は、逆に3D画像40の左半身が手前側、頸部が右側に見える。   Since the display position of the 3D image 40 in the real space RS is fixed substantially at the center of the table 36, the appearance of the 3D image 40 in the augmented reality space ARS recognized by the user 15 differs according to the standing position of the user 15 . Specifically, in the standing position shown in FIG. 3, the user 15 sees the right half of the 3D image 40 on the near side and the neck on the left. When the user 15 stands on the other long side of the table 36 opposite to the standing position shown in FIG. 3, the left half of the 3D image 40 is seen on the near side and the neck is on the right.

また、例えばユーザ15がテーブル36に近付くと、近付くにつれて3D画像40が拡大表示される。逆にユーザ15がテーブル36から遠ざかると、遠ざかるにつれて3D画像40が縮小表示される。   Also, for example, when the user 15 approaches the table 36, the 3D image 40 is enlarged and displayed as the user 15 approaches. Conversely, when the user 15 moves away from the table 36, the 3D image 40 is displayed in a reduced size as the user 15 moves away.

このように、3D画像40の表示は、画像表示システム10(ユーザ15)とテーブル36との三次元的な位置関係に応じて変更される。画像表示システム10とテーブル36との三次元的な位置関係は、センサ部29の空間認識ユニットでテーブル36を含むカンファレンス室14の全体を空間認識し、かつビデオカメラおよびIMUでヘッドトラッキングを実施することで認識可能である。なお、当然ではあるが、現実空間RSの実在オブジェクトであるテーブル36等も、ユーザ15の立ち位置に応じて拡張現実空間ARSにおける見え方が異なる。   Thus, the display of the 3D image 40 is changed according to the three-dimensional positional relationship between the image display system 10 (user 15) and the table 36. The three-dimensional positional relationship between the image display system 10 and the table 36 performs space recognition of the entire conference room 14 including the table 36 by the space recognition unit of the sensor unit 29, and performs head tracking by the video camera and IMU. Can be recognized. As a matter of course, the appearance in the augmented reality space ARS also differs depending on the standing position of the user 15, such as the table 36 etc., which is a real object of the real space RS.

図4に、ユーザ15が認識する拡張現実空間ARSの成り立ちを示す。ユーザ15は、スクリーン28と保護枠27を通じて、テーブル36および自らの手37が存在する現実空間RSを視認する。加えて、ユーザ15は、スクリーン28の内面を通じて、3D画像40が存在する仮想空間VSを視認する。これにより、ユーザ15は、現実空間RSと仮想空間VSを融合させた拡張現実空間ARSを認識する。   FIG. 4 shows the formation of the augmented reality space ARS that the user 15 recognizes. The user 15 visually recognizes the real space RS in which the table 36 and his / her hand 37 exist through the screen 28 and the protective frame 27. In addition, the user 15 views the virtual space VS in which the 3D image 40 exists through the inner surface of the screen 28. Thereby, the user 15 recognizes an augmented reality space ARS in which the real space RS and the virtual space VS are fused.

仮想空間VSには、ユーザ15の視点位置を示すカーソル41が重畳表示される。カーソル41は二重丸の形状をしている。このカーソル41の表示位置は、センサ部29のビデオカメラおよびIMUの協働によるヘッドトラッキングの結果から割り出される。すなわち、カーソル41は、ユーザ15の頭部の動きに連動して移動する。例えばユーザ15が頭部を上に向けると、カーソル41も上に移動する。   In the virtual space VS, a cursor 41 indicating the viewpoint position of the user 15 is superimposed and displayed. The cursor 41 has a double circle shape. The display position of the cursor 41 is determined from the result of head tracking by cooperation of the video camera of the sensor unit 29 and the IMU. That is, the cursor 41 moves in conjunction with the movement of the head of the user 15. For example, when the user 15 turns the head upward, the cursor 41 also moves upward.

図5は、3D画像40を構成する複数枚のCTスキャン画像45のうちの一枚を示したものである。ここで、CTスキャン画像45の面(スライス面)と平行な、腹背を結ぶ線に沿った人体の前後方向を深さ方向とする。CTスキャン画像45には、外側から順に、皮膚46、脂肪等の皮下組織47、腹直筋等の筋組織48、肋骨、胸骨等の骨49、肝臓50A、胃50B、脾臓50C等の内臓50、腫瘍等の病変51といった人体組織の構造物が複数映されている。3D画像40は、こうした人体組織の複数の構造物が映されたCTスキャン画像45を再構成したものである。このため、3D画像40は、複数の構造物が深さ方向に重なった仮想オブジェクトである。なお、3D画像40には、例えば皮膚46は肌色、骨49は灰色、内臓50はピンク色、病変51は赤色等の色付けがなされている。   FIG. 5 shows one of the plurality of CT scan images 45 constituting the 3D image 40. As shown in FIG. Here, the front-rear direction of the human body along the line connecting the abdominal back parallel to the plane (slice plane) of the CT scan image 45 is taken as the depth direction. The CT scan image 45 includes skin 46, subcutaneous tissue 47 such as fat, muscle tissue 48 such as rectus abdominis muscle, bone 49 such as rib, sternum, liver 50A, stomach 50B, spleen 50C etc. And a plurality of structures of human tissue such as a lesion 51 such as a tumor. The 3D image 40 is a reconstruction of a CT scan image 45 in which a plurality of structures of human tissue are shown. Therefore, the 3D image 40 is a virtual object in which a plurality of structures overlap in the depth direction. In the 3D image 40, for example, the skin 46 has a skin color, the bone 49 has a gray color, the viscera 50 has a pink color, and the lesion 51 has a red color.

複数の構造物のうち、皮膚46、皮下組織47、筋組織48、骨49は、3D画像40上の位置に関わらず、外側からこの順に存在する。一方、肝臓50A等の内臓50は、3D画像40において、体軸方向の位置に応じて変わる。ここでは肝臓50A、胃50B、脾臓50Cを例示したが、上半身の3D画像40であるため、腎臓、膵臓、小腸、大腸といった他の内臓50も3D画像40に含まれている。   Among the plurality of structures, the skin 46, the subcutaneous tissue 47, the muscle tissue 48, and the bone 49 exist in this order from the outside regardless of the position on the 3D image 40. On the other hand, in the 3D image 40, the internal organs 50 such as the liver 50A change according to the position in the body axis direction. Here, the liver 50A, stomach 50B, and spleen 50C are exemplified, but since it is the 3D image 40 of the upper body, other internal organs 50 such as the kidney, the pancreas, the small intestine, and the large intestine are also included in the 3D image 40.

図6は、ユーザ15が画像表示システム10を用いて対象患者の手術方針を検討する際の大まかな流れを示すフローチャートである。まず、3D画像40のファイルアイコンの一覧がHMD11に表示され、一覧の中から、ユーザ15により仮想オブジェクトとして表示する対象患者の3D画像40が選択される(ステップST100)。3D画像40の選択後、画像表示システム10は3D画像40の初期表示位置の設定に移行する(ステップST110)。初期表示位置には、例えばテーブル36上等、大まかな位置が設定される。   FIG. 6 is a flowchart showing a rough flow when the user 15 uses the image display system 10 to examine the surgical procedure of the target patient. First, a list of file icons of the 3D image 40 is displayed on the HMD 11, and a 3D image 40 of a target patient to be displayed as a virtual object is selected by the user 15 from the list (step ST100). After the 3D image 40 is selected, the image display system 10 shifts to setting of the initial display position of the 3D image 40 (step ST110). As the initial display position, a rough position, such as on the table 36, is set.

初期表示位置の設定後、画像表示システム10はアジャストモードに移行する(ステップST120)。アジャストモードでは、3D画像40の表示位置、表示サイズ、および表示向きのいずれか選択し、これらを初期表示位置からユーザ15の好みとなるよう変更することが可能である。   After setting the initial display position, the image display system 10 shifts to the adjustment mode (step ST120). In the adjustment mode, it is possible to select any of the display position, display size, and display orientation of the 3D image 40, and change these from the initial display position to the preference of the user 15.

すなわち、アジャストモードでは、現実空間RSにおける3D画像40の表示位置、表示サイズ、および表示向きが、仮想オブジェクトに関する複数の選択肢に相当する。また、アジャストモードでは、3D画像40の表示位置、表示サイズ、および表示向きのそれぞれの変更処理が、選択された1つの選択肢に付随する、仮想オブジェクトの表示態様を変更する変更処理に相当する。   That is, in the adjustment mode, the display position, display size, and display direction of the 3D image 40 in the real space RS correspond to a plurality of options regarding the virtual object. Further, in the adjust mode, the process of changing the display position, the display size, and the display direction of the 3D image 40 corresponds to a process of changing the display mode of the virtual object accompanying the selected one option.

アジャストモードで3D画像40の表示位置、表示サイズ、表示向きがユーザ15の好むものとなり、ユーザ15からアジャストモードを終える指示があった場合、画像表示システム10はオブザーブモードに移行する(ステップST130)。オブザーブモードでは、アジャストモードで設定された表示位置、表示サイズ、表示向きにて、3D画像40を観察することが可能である。   When the display position, display size, and display orientation of the 3D image 40 become the preference of the user 15 in the adjust mode, and the user 15 instructs the finish of the adjust mode, the image display system 10 shifts to the observe mode (step ST130). . In the observation mode, it is possible to observe the 3D image 40 at the display position, display size, and display orientation set in the adjustment mode.

また、オブザーブモードでは、皮膚46等の構造物を選択し、選択した構造物の透過率を変更することが可能である。例えば、皮膚46、皮下組織47、筋組織48、骨49等の各構造物を選択し、各構造物の透過率を全て100%(透明)に変更して、手術予定の病変51を直接視認可能とする。   In the observation mode, it is also possible to select a structure such as the skin 46 and change the transmittance of the selected structure. For example, each structure such as the skin 46, the subcutaneous tissue 47, the muscle tissue 48, the bone 49, etc. is selected, the transmittance of each structure is changed to 100% (transparent), and the lesion 51 to be operated is directly viewed To be possible.

すなわち、オブザーブモードでは、複数の構造物が、仮想オブジェクトに関する複数の選択肢に相当する。また、オブザーブモードでは、選択された構造物の透過率を変更する透過率変更処理が、選択された1つの選択肢に付随する、仮想オブジェクトの表示態様を変更する変更処理に相当する。なお、オブザーブモードにおいて、3D画像40に対して仮想的なメスを用いて仮想的な開腹手術を施すことが可能な構成としてもよい。   That is, in the observation mode, a plurality of structures correspond to a plurality of options for virtual objects. In the observation mode, the transmittance changing process for changing the transmittance of the selected structure corresponds to the changing process for changing the display mode of the virtual object accompanying the one selected option. In the observation mode, a virtual scalpel may be applied to the 3D image 40 using a virtual scalpel.

図7において、画像表示システム10の制御装置12は、前述のストレージデバイス55、メモリ56、およびCPU57等を備えている。これらはデータバス58を介して相互接続されている。なお、制御装置12は、これらの他にも、各種センサのドライバ、電力供給回路、無線通信回路を含む。   In FIG. 7, the control device 12 of the image display system 10 includes the storage device 55, the memory 56, the CPU 57, and the like described above. These are interconnected via a data bus 58. In addition to these, the control device 12 includes drivers of various sensors, a power supply circuit, and a wireless communication circuit.

ストレージデバイス55は、例えば制御装置12に内蔵されたハードディスクドライブである。ストレージデバイス55には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データが記憶されている。   The storage device 55 is, for example, a hard disk drive built in the control device 12. The storage device 55 stores control programs such as an operating system, various application programs, and various data associated with these programs.

メモリ56は、CPU57が処理を実行するためのワークメモリである。CPU57は、ストレージデバイス55に記憶されたプログラムをメモリ56へロードして、プログラムにしたがった処理を実行することにより、制御装置12の各部を統括的に制御する。   The memory 56 is a work memory for the CPU 57 to execute processing. The CPU 57 loads the program stored in the storage device 55 into the memory 56, and executes the processing according to the program, to control each part of the control device 12 in an integrated manner.

図8において、ストレージデバイス55には作動プログラム65が記憶されている。作動プログラム65は、制御装置12を構成するコンピュータを、HMD11の制御装置として機能させるためのアプリケーションプログラムである。ストレージデバイス55には、作動プログラム65の他に、第1対応情報66(図10〜図15参照)および第2対応情報67(図16および図17参照)が記憶されている。   In FIG. 8, the storage device 55 stores an operation program 65. The operation program 65 is an application program for causing a computer constituting the control device 12 to function as a control device of the HMD 11. In the storage device 55, in addition to the operation program 65, first correspondence information 66 (see FIGS. 10 to 15) and second correspondence information 67 (see FIGS. 16 and 17) are stored.

作動プログラム65が起動されると、CPU57は、メモリ56等と協働して、センサ情報取得部70、3D画像取得部71、認識部72、処理部73、および表示制御部74として機能する。   When the operation program 65 is activated, the CPU 57 functions as the sensor information acquisition unit 70, the 3D image acquisition unit 71, the recognition unit 72, the processing unit 73, and the display control unit 74 in cooperation with the memory 56 and the like.

センサ情報取得部70は、HMD11のセンサ部29からのセンサ情報を取得する。センサ情報には、空間認識用カメラの撮像画像、ビデオカメラの撮像画像、IMUの各種センサの検知信号、デプスセンサの撮像画像、並びにマイクロフォンで収録した音声が含まれる。センサ情報取得部70は、取得したセンサ情報を認識部72に出力する。   The sensor information acquisition unit 70 acquires sensor information from the sensor unit 29 of the HMD 11. The sensor information includes a captured image of a space recognition camera, a captured image of a video camera, detection signals of various sensors of the IMU, a captured image of a depth sensor, and sound recorded by a microphone. The sensor information acquisition unit 70 outputs the acquired sensor information to the recognition unit 72.

3D画像取得部71は、3D画像40の配信要求を画像蓄積サーバ19に発行する。また、3D画像取得部71は、配信要求に応じて画像蓄積サーバ19から送信された3D画像40を取得する。3D画像取得部71は、取得した3D画像40を表示制御部74に出力する。   The 3D image acquisition unit 71 issues a distribution request for the 3D image 40 to the image storage server 19. Further, the 3D image acquisition unit 71 acquires the 3D image 40 transmitted from the image storage server 19 in response to the distribution request. The 3D image acquisition unit 71 outputs the acquired 3D image 40 to the display control unit 74.

認識部72は、センサ情報取得部70からのセンサ情報に基づいた各種認識を行う。認識部72は、認識結果を処理部73および表示制御部74に出力する。処理部73は、認識部72からの認識結果に基づいた各種処理を行う。処理部73は、処理結果を表示制御部74に出力する。表示制御部74は、3D画像40を含む仮想画像のHMD11への表示を制御する表示制御機能を担う。   The recognition unit 72 performs various recognition based on the sensor information from the sensor information acquisition unit 70. The recognition unit 72 outputs the recognition result to the processing unit 73 and the display control unit 74. The processing unit 73 performs various processes based on the recognition result from the recognition unit 72. The processing unit 73 outputs the processing result to the display control unit 74. The display control unit 74 has a display control function of controlling display of a virtual image including the 3D image 40 on the HMD 11.

図9において、認識部72は操作認識部80を含んでいる。また、処理部73は選択処理部85および変更処理部86を含んでいる。   In FIG. 9, the recognition unit 72 includes an operation recognition unit 80. Further, the processing unit 73 includes a selection processing unit 85 and a change processing unit 86.

操作認識部80には、センサ情報取得部70からのセンサ情報のうちのデプスセンサの撮像画像が入力される。操作認識部80は、デプスセンサの撮像画像、および第1対応情報66に基づいて、ジェスチャー操作を認識する操作認識機能を担う。操作認識部80は、認識したジェスチャー操作の情報(以下、ジェスチャー情報)を、認識結果として処理部73に出力する。   The captured image of the depth sensor in the sensor information from the sensor information acquisition unit 70 is input to the operation recognition unit 80. The operation recognition unit 80 has an operation recognition function of recognizing a gesture operation based on the image captured by the depth sensor and the first correspondence information 66. The operation recognition unit 80 outputs information of the recognized gesture operation (hereinafter, gesture information) to the processing unit 73 as a recognition result.

なお、認識部72には、操作認識部80の他に、音声認識部、動き認識部、空間認識部等の各種認識部が設けられている。音声認識部は、センサ情報のうちのマイクロフォンの収録音声の中から特定音声を認識する。特定音声はユーザ15が発話する音声で、予め決められた文言が登録されている。動き認識部は、センサ情報のうちのビデオカメラの撮像画像、およびIMUの各種センサの検知信号に基づいて、ユーザ15の頭部の動きを認識する。空間認識部は、空間認識用カメラの撮像画像に基づいて、画像表示システム10の使用周辺環境を空間認識する。   In addition to the operation recognition unit 80, the recognition unit 72 is provided with various recognition units such as a voice recognition unit, a motion recognition unit, and a space recognition unit. The voice recognition unit recognizes a specific voice from among the voices recorded in the microphone of the sensor information. The specific voice is a voice uttered by the user 15, and predetermined words and phrases are registered. The motion recognition unit recognizes the motion of the head of the user 15 based on the captured image of the video camera among the sensor information and detection signals of various sensors of the IMU. The space recognition unit spatially recognizes the use peripheral environment of the image display system 10 based on an image captured by the space recognition camera.

処理部73は、第2対応情報67に基づいて、操作認識部80からのジェスチャー情報で表されるジェスチャー操作を、その種類に応じた各種の操作コマンドとして認識する。そして、認識した操作コマンドに応じた各種処理を行う。より具体的には、処理部73の選択処理部85は、操作コマンドのうちの選択コマンド(図16および図17参照)に応じて、3D画像40に関する複数の選択肢のうちの1つの選択肢を、サイクリックに切り替える選択処理機能を担う。複数の選択肢は、図6を用いて説明したように、アジャストモードでは3D画像40の表示位置、表示サイズ、および表示向きといった変更処理の種類であり、オブザーブモードでは変更処理の対象である複数の構造物である。選択処理部85は、選択した1つの選択肢の情報(以下、選択肢情報)を、処理結果として表示制御部74に出力する。   Based on the second correspondence information 67, the processing unit 73 recognizes the gesture operation represented by the gesture information from the operation recognition unit 80 as various operation commands according to the type. Then, various processes are performed according to the recognized operation command. More specifically, the selection processing unit 85 of the processing unit 73 selects one of a plurality of options regarding the 3D image 40 according to the selection command (see FIGS. 16 and 17) of the operation commands, It is responsible for the selection processing function to switch to cyclic. The plurality of options are the types of change processing such as the display position, display size, and display orientation of the 3D image 40 in the adjust mode, as described with reference to FIG. It is a structure. The selection processing unit 85 outputs the information of one selected option (hereinafter, option information) to the display control unit 74 as a processing result.

変更処理部86は、操作コマンドのうちの変更コマンド(図16および図17参照)に応じて、選択処理部85で選択された1つの選択肢に付随する、3D画像40の表示態様を変更する変更処理を行う変更処理機能を担う。変更処理は、これも図6を用いて説明したように、アジャストモードでは3D画像40の表示位置、表示サイズ、および表示向きのそれぞれの変更処理であり、オブザーブモードでは構造物の透過率変更処理である。変更処理部86は、変更処理の結果を示す情報(以下、変更情報)を、処理結果として表示制御部74に出力する。   The change processing unit 86 changes the display mode of the 3D image 40 accompanying the one option selected by the selection processing unit 85 in accordance with the change command (see FIGS. 16 and 17) of the operation commands. It is responsible for the change processing function that performs processing. The change process is also the change process of the display position, the display size, and the display direction of the 3D image 40 in the adjust mode as described with reference to FIG. 6, and the process of changing the transmittance of the structure in the observe mode It is. The change processing unit 86 outputs information indicating the result of the change processing (hereinafter, change information) to the display control unit 74 as a processing result.

処理部73は、これら選択処理部85および変更処理部86の他にも、様々な処理部を有している。例えば、操作コマンドのうちの画像選択コマンド(図16参照)に応じて、3D画像取得部71に3D画像40の配信要求を発行させる画像選択処理部や、操作コマンドのうちのモード切替コマンド(図17参照)に応じて、アジャストモードとオブザーブモードを切り替えるモード切替処理部等がある。また、処理部73は、音声認識部で認識された特定音声についても、ジェスチャー情報と同じく操作コマンドを認識し、認識した操作コマンドに応じた各種処理を行う。   The processing unit 73 includes various processing units in addition to the selection processing unit 85 and the change processing unit 86. For example, an image selection processing unit that causes the 3D image acquisition unit 71 to issue a distribution request for the 3D image 40 according to an image selection command (see FIG. 16) of the operation commands, a mode switching command There is a mode switching processing unit or the like that switches between the adjustment mode and the observation mode according to (17). Further, the processing unit 73 recognizes the operation command as well as the gesture information on the specific voice recognized by the voice recognition unit, and performs various processes according to the recognized operation command.

図10〜図15に示すように、第1対応情報66には、ユーザ15の手37の動きの推移と、これに対応するジェスチャー操作が登録されている。まず、図10に示す第1対応情報66Aには、2本の指38(ここでは人差し指と親指)の指先同士を離したGA1の状態から、GA2に示すように1本の指38(ここでは人差し指)を親指に向けて押し下げた後、GA3に示すように間を置かずに1本の指38を押し上げて再び2本の指38の指先を離す一連の動きが登録されている。この動きに対しては、ジェスチャー操作としてシングルタップ操作が登録されている。   As shown in FIGS. 10 to 15, in the first correspondence information 66, the transition of the movement of the hand 37 of the user 15 and the corresponding gesture operation are registered. First, in the first correspondence information 66A shown in FIG. 10, from the state of GA1 in which the fingers of two fingers 38 (here, the index finger and the thumb) are separated, one finger 38 (here) is shown as GA2. After depressing the forefinger) toward the thumb, a series of movements are registered which push up one finger 38 and release the finger tips of the two fingers 38 again without leaving an interval as shown in GA 3. For this movement, a single tap operation is registered as a gesture operation.

図11に示す第1対応情報66Bには、GB1〜GB3までは図10のシングルタップ操作のGA1〜GA3と同じであるが、GB3で2本の指38の指先を離した後、さらに続けてGB4に示すように1本の指38(ここでは人差し指)を再び親指に向けて押し下げ、GB5に示すようにもう一度1本の指38を押し上げて2本の指38の指先を離す一連の動きが登録されている。この動きは、言い換えれば、親指以外の少なくとも1本の指38を親指に向けて押し下げてから押し上げる動作を2回連続して行う動きである。第1対応情報66Bでは、この動きに対して、ジェスチャー操作としてダブルタップ操作が登録されている。   The first correspondence information 66B shown in FIG. 11 is the same as GA1 to GA3 of the single tap operation in FIG. 10 up to GB1 to GB3, but after releasing the fingertips of two fingers 38 in GB3, it continues further As shown in GB4, press down one finger 38 (here the index finger) toward the thumb again and push up one finger 38 again as shown in GB5 to release the finger tips of two fingers 38 It is registered. In other words, this movement is a movement in which an operation of pushing at least one finger 38 other than the thumb toward the thumb and pushing it up twice in a row is performed. In the first correspondence information 66B, a double tap operation is registered as a gesture operation for this movement.

なお、シングルタップ操作およびダブルタップ操作においては、親指以外の少なくとも1本の指38を親指に向けて押し下げた場合に、親指と親指以外の少なくとも1本の指38のそれぞれの指先を接触させる必要はない。   In addition, in single tap operation and double tap operation, when at least one finger 38 other than the thumb is depressed toward the thumb, it is necessary to bring the respective fingers of the thumb and the at least one finger 38 other than the thumb into contact. There is no.

図12に示す第1対応情報66Cの動きは、GC1、GC2までは図10のシングルタップ操作のGA1、GA2と同じである。ただし、図10ではGA3で2本の指38の指先を離していたのに対し、図12では、GC3Rに示すように、2本の指38の指先を接触させた状態で、手37を左から右に移動させている。第1対応情報66Cでは、この動きに対して、ジェスチャー操作としてタップアンドホールド操作の右スライド操作が登録されている。   The movement of the first correspondence information 66C shown in FIG. 12 is the same as that of GA1 and GA2 in the single tap operation of FIG. 10 up to GC1 and GC2. However, while in FIG. 10 the finger tips of two fingers 38 are separated by GA 3, in FIG. 12, as shown by GC 3 R, the hand 37 is left when the finger tips of two fingers 38 are in contact. I am moving from the right. In the first correspondence information 66C, the right slide operation of the tap-and-hold operation is registered as the gesture operation for this movement.

図13に示す第1対応情報66Dには、図12のGC3Rとは逆に、GC3Lに示すように、2本の指38の指先を接触させた状態で、手37を右から左に移動させる動きが登録されている。この動きに対しては、ジェスチャー操作としてタップアンドホールド操作の左スライド操作が登録されている。なお、GC1、GC2の動きは図12と同じであるため、図13では図示を省略している。以降の図14、図15も同様である。   The hand 37 is moved from right to left in a state where the fingertips of the two fingers 38 are in contact with the first correspondence information 66D shown in FIG. 13 as shown in GC3L contrary to GC3R in FIG. Movement is registered. For this movement, the left slide operation of tap-and-hold operation is registered as the gesture operation. The motions of GC1 and GC2 are the same as in FIG. 12, and thus are not shown in FIG. The same applies to FIGS. 14 and 15 that follow.

図14に示す第1対応情報66Eには、GC3Uに示すように、2本の指38の指先を接触させた状態で、手37を下から上に移動させる動きが登録されている。この動きに対しては、ジェスチャー操作としてタップアンドホールド操作の上スライド操作が登録されている。一方、図15に示す第1対応情報66Fには、図14のGC3Uとは逆に、GC3Dに示すように、2本の指38の指先を接触させた状態で、手37を上から下に移動させる動きが登録されている。この動きに対しては、ジェスチャー操作としてタップアンドホールド操作の下スライド操作が登録されている。   In the first correspondence information 66E shown in FIG. 14, as shown in GC3U, the movement of moving the hand 37 from the bottom to the top is registered in a state where the fingertips of the two fingers 38 are in contact. For this movement, the upper slide operation of the tap-and-hold operation is registered as the gesture operation. On the other hand, as indicated by GC3D in the first correspondence information 66F shown in FIG. 15 as opposed to GC3U in FIG. 14, with the fingertips of the two fingers 38 in contact, the hand 37 is from top to bottom The movement to be moved is registered. For this movement, the lower slide operation of the tap-and-hold operation is registered as the gesture operation.

なお、図示は省略するが、第1対応情報66には、タップアンドホールド操作として、図12〜図15に示す右左スライド操作、上下スライド操作に加えて、2本の指38の指先を接触させた状態で、手37を例えば左下から右上、あるいはその逆、さらには右下から左上、あるいはその逆に向かって動かす、斜めスライド操作も登録されている。   Although illustration is omitted, in addition to the right and left slide operation and the up and down slide operation shown in FIGS. 12 to 15 as the tap-and-hold operation, the first correspondence information 66 is touched with the fingertips of two fingers 38. In the state, an oblique slide operation is also registered, in which the hand 37 is moved, for example, from the lower left to the upper right or vice versa, and further from the lower right to the upper left or vice versa.

図10に示すシングルタップ操作および図11に示すダブルタップ操作は、指38の付け根の関節である中手指節関節を支点とするジェスチャー操作である。対して図12〜図15に示す右左スライド操作、上下スライド操作、あるいは図示しない斜めスライド操作を含むタップアンドホールド操作は、中手指節関節を支点とするジェスチャー操作に、さらに手首、肘、肩のいずれかを支点として手37を移動させるスライド操作が加わったジェスチャー操作である。   The single-tap operation shown in FIG. 10 and the double-tap operation shown in FIG. 11 are gesture operations with the metacarpal-phalangeal joint which is a joint of the base of the finger 38 as a fulcrum. On the other hand, the tap-and-hold operation including the right / left slide operation, the up / down slide operation, or the oblique slide operation (not shown) shown in FIGS. This is a gesture operation in which a slide operation for moving the hand 37 with one of them as a fulcrum is added.

操作認識部80は、周知の画像認識技術を用いて、デプスセンサの撮像画像に映されたユーザ15の手37から、2本の指38の指先を認識する。そして、認識した指先の移動軌跡が、第1対応情報66に登録された手37の動きの推移のいずれに該当するかを判断する。   The operation recognition unit 80 recognizes the fingertips of the two fingers 38 from the hand 37 of the user 15 captured in the image captured by the depth sensor using a known image recognition technology. Then, it is determined which of the movements of the hand 37 registered in the first correspondence information 66 the movement locus of the recognized fingertip corresponds to.

例えば、2本の指38の指先が互いに離れた状態からほぼ同じ位置に移動し、間を置かずに再び離れた場合、操作認識部80は、図10の第1対応情報66Aに登録された動きに該当すると判断し、ジェスチャー操作をシングルタップ操作と認識する。また、2本の指38の指先が互いに離れた状態からほぼ同じ位置に移動し、そのままの状態で2本の指38の指先の位置が左から右に移動した場合、操作認識部80は、図12の第1対応情報66Cに登録された動きに該当すると判断し、ジェスチャー操作をタップアンドホールド操作の右スライド操作と認識する。なお、親指以外の少なくとも1本の指38は、人差し指に限らず、中指、薬指、さらには小指であってもよい。また、人差し指と中指等でもよい。   For example, when the fingertips of two fingers 38 move to almost the same position from a state where they are separated from each other and are separated again without putting an interval, the operation recognition unit 80 is registered in the first correspondence information 66A of FIG. It judges that it corresponds to movement and recognizes gesture operation as single tap operation. In addition, when the fingertips of two fingers 38 move away from each other to almost the same position, and the position of the fingertips of two fingers 38 moves from left to right in the same condition, the operation recognition unit 80 It judges that it corresponds to the movement registered into the 1st corresponding information 66C of Drawing 12, and recognizes gesture operation as right slide operation of tap and hold operation. The at least one finger 38 other than the thumb is not limited to the index finger, and may be the middle finger, the ring finger, or even the little finger. In addition, the index finger and the middle finger may be used.

図16および図17に示すように、第2対応情報67は、ジェスチャー操作と、これに対応するフェーズ毎の操作コマンドとを登録したものである。第2対応情報67には、視点位置合わせの有無も併せて登録されている。   As shown in FIG. 16 and FIG. 17, the second correspondence information 67 is information in which a gesture operation and an operation command for each phase corresponding to the gesture operation are registered. In the second correspondence information 67, the presence or absence of viewpoint alignment is also registered.

まず、フェーズが図6のステップST100に示す3D画像40の選択であった場合、視点位置合わせを伴うシングルタップ操作に対して、画像選択コマンドが割り当てられている。視点位置合わせは、3D画像40のファイルアイコンの一覧の中から所望の3D画像40を選択するために用いられる。すなわち、3D画像40のファイルアイコンの一覧のうちの所望の3D画像40に視点位置(カーソル41)を合わせ、その状態でシングルタップ操作を行うと、視点位置を合わせた3D画像40の配信要求が3D画像取得部71から画像蓄積サーバ19に配信される。   First, when the phase is the selection of the 3D image 40 shown in step ST100 of FIG. 6, an image selection command is assigned to a single tap operation involving viewpoint alignment. Viewpoint alignment is used to select the desired 3D image 40 from the list of file icons of the 3D image 40. That is, if the viewpoint position (cursor 41) is aligned with the desired 3D image 40 in the list of file icons of the 3D image 40 and a single tap operation is performed in that state, a distribution request for the 3D image 40 with the viewpoint position aligned is It is distributed from the 3D image acquisition unit 71 to the image storage server 19.

続いて、フェーズが図6のステップST110に示す3D画像40の初期表示位置の設定であった場合、視点位置合わせを伴うシングルタップ操作に対して、今度は表示位置設定コマンドが割り当てられている。この場合の視点位置合わせは、3D画像40の初期表示位置を確定するために用いられる。すなわち、3D画像40の選択終了後に、現実空間RSの実在オブジェクトに視点位置を合わせ、その状態でシングルタップ操作を行うと、視点位置を合わせた実在オブジェクト上に3D画像40が表示される。   Subsequently, when the phase is setting of the initial display position of the 3D image 40 shown in step ST110 of FIG. 6, a display position setting command is assigned to a single tap operation involving viewpoint alignment. The viewpoint alignment in this case is used to determine the initial display position of the 3D image 40. That is, after the selection of the 3D image 40 is completed, the viewpoint position is matched with the real object in the real space RS, and a single tap operation is performed in that state, the 3D image 40 is displayed on the real object with the viewpoint position matched.

図6のステップST120に示すアジャストモードでは、ダブルタップ操作に対して、3D画像40の表示位置、表示サイズ、表示向きといった変更処理の種類の選択をサイクリックに切り替える選択コマンドが割り当てられている。一方、図6のステップST130に示すオブザーブモードでは、ダブルタップ操作に対して、変更処理の対象である複数の構造物の選択をサイクリックに切り替える選択コマンドが割り当てられている。   In the adjust mode shown in step ST120 of FIG. 6, a selection command for cyclically switching the selection of the type of change processing such as the display position, display size, and display orientation of the 3D image 40 is assigned to the double tap operation. On the other hand, in the observation mode shown in step ST130 of FIG. 6, a selection command for switching the selection of a plurality of structures to be changed is cyclically assigned to the double tap operation.

アジャストモードで表示位置が選択されていた場合(フェーズ=アジャストモード(表示位置))は、タップアンドホールド操作の右スライド操作に対して、3D画像40の表示位置を右に移動させる変更コマンドが割り当てられている。また、タップアンドホールド操作の左スライド操作に対して、3D画像40の表示位置を左に移動させる変更コマンドが割り当てられている。なお、図示は省略したが、タップアンドホールド操作の上下スライド操作に対しては、3D画像40の表示位置を上下に移動させる変更コマンドが割り当てられ、タップアンドホールド操作の斜めスライド操作に対しては、3D画像40の表示位置を斜め手前または斜め奥に移動させる変更コマンドが割り当てられている。   When the display position is selected in the adjust mode (phase = adjust mode (display position)), a change command for moving the display position of the 3D image 40 to the right is assigned to the right slide operation of the tap and hold operation It is done. Further, a change command for moving the display position of the 3D image 40 to the left is assigned to the left slide operation of the tap and hold operation. Although not shown, a change command for moving the display position of the 3D image 40 up and down is assigned to the vertical slide operation of the tap and hold operation, and the diagonal slide operation of the tap and hold operation is allocated. , A change command for moving the display position of the 3D image 40 diagonally forward or diagonally back is assigned.

アジャストモードで表示サイズが選択されていた場合(フェーズ=アジャストモード(表示サイズ))、タップアンドホールド操作の右スライド操作に対して、3D画像40の表示サイズを拡大させる変更コマンドが割り当てられている。また、タップアンドホールド操作の左スライド操作に対して、3D画像40の表示サイズを縮小させる変更コマンドが割り当てられている。   When the display size is selected in the adjust mode (phase = adjust mode (display size)), a change command for enlarging the display size of the 3D image 40 is assigned to the right slide operation of the tap-and-hold operation. . Further, a change command for reducing the display size of the 3D image 40 is assigned to the left slide operation of the tap and hold operation.

アジャストモードで表示向きが選択されていた場合(フェーズ=アジャストモード(表示向き))、タップアンドホールド操作の右スライド操作に対して、3D画像40を鉛直軸右回りに回転させる変更コマンドが、タップアンドホールド操作の左スライド操作に対して、3D画像40を鉛直軸左回りに回転させる変更コマンドが、それぞれ割り当てられている。また、タップアンドホールド操作の上スライド操作に対して、タップアンドホールド操作の右左スライド操作の方向とほぼ平行な水平軸右回りに、3D画像40を回転させる変更コマンドが、タップアンドホールド操作の下スライド操作に対して、水平軸左回りに3D画像40を回転させる変更コマンドが、それぞれ割り当てられている。   When the display orientation is selected in the adjust mode (phase = adjust mode (display direction)), the change command to rotate the 3D image 40 clockwise about the vertical axis is tapped in response to the right slide operation of the tap and hold operation. Change commands to rotate the 3D image 40 counterclockwise in the vertical axis are assigned to the left slide operation of the and hold operation. In addition, the change command for rotating the 3D image 40 clockwise about the horizontal axis substantially parallel to the direction of the right-left slide operation of the tap-and-hold operation is the tap-and-hold operation under the tap-and-hold operation. Change commands for rotating the 3D image 40 counterclockwise in the horizontal axis are assigned to slide operations.

オブザーブモードでは、タップアンドホールド操作の右スライド操作に対して、選択された構造物の透過率を増加させる変更コマンドが割り当てられている。また、タップアンドホールド操作の左スライド操作に対して、選択された構造物の透過率を減少させる変更コマンドが割り当てられている。   In the observation mode, a change command for increasing the transmittance of the selected structure is assigned to the right slide operation of the tap-and-hold operation. In addition, a change command to decrease the transmittance of the selected structure is assigned to the left slide operation of the tap-and-hold operation.

さらに、全フェーズに共通する操作コマンドとして、視点位置合わせを伴うシングルタップ操作に対して、作動プログラム65を終了する終了コマンドが割り当てられている。この場合の視点位置合わせは、図24および図25に示す終了ボタン103を選択するために用いられる。なお、第2対応情報67には、これらの他にも、リセットボタン105(図24および図25参照)への視点位置合わせを伴うシングルタップ操作に対する、3D画像40の表示を初期表示位置の設定直後に戻すリセットコマンド等が登録されている。   Further, as an operation command common to all phases, an end command for ending the operation program 65 is assigned to a single tap operation accompanied with viewpoint alignment. The viewpoint alignment in this case is used to select the end button 103 shown in FIGS. 24 and 25. In addition, in the second correspondence information 67, setting of the initial display position of the display of the 3D image 40 in response to a single tap operation involving viewpoint alignment to the reset button 105 (see FIG. 24 and FIG. 25). A reset command etc. to be returned immediately after is registered.

視点位置合わせを利用するのは、上記の3D画像40を選択する場合、3D画像40の初期表示位置を設定する場合、終了コマンドを入力する場合、リセットコマンドを入力する場合等である。選択コマンド、および変更コマンドは、視点位置合わせの必要はなく、ダブルタップ操作、もしくはタップアンドホールド操作のみで入力可能である。   The viewpoint alignment is used when selecting the 3D image 40, setting an initial display position of the 3D image 40, inputting an end command, inputting a reset command, or the like. The selection command and the change command do not need to be aligned with the viewpoint, and can be input only by a double tap operation or a tap and hold operation.

図16および図17で示したように、同じジェスチャー操作であっても、フェーズにより操作コマンドが異なる。このため、処理部73は現在のフェーズを常に把握しており、操作認識部80からのジェスチャー情報で表されるジェスチャー操作を、各フェーズに適応した操作コマンドとして認識する。   As shown in FIG. 16 and FIG. 17, the operation commands differ depending on the phase even with the same gesture operation. Therefore, the processing unit 73 always recognizes the current phase, and recognizes the gesture operation represented by the gesture information from the operation recognition unit 80 as an operation command adapted to each phase.

また、本例では、複数の選択肢のうちの1つの選択肢を選択するジェスチャー操作である選択操作にダブルタップ操作が割り当てられ、一方で3D画像40の表示態様を変更する変更処理を行わせるためのジェスチャー操作である変更操作にタップアンドホールド操作が割り当てられている。   Further, in this example, a double tap operation is assigned to a selection operation which is a gesture operation for selecting one of a plurality of options, and on the other hand, a change process for changing the display mode of the 3D image 40 is performed. The tap-and-hold operation is assigned to the change operation which is a gesture operation.

アジャストモードにおいては、選択処理部85は、図18に示すように、ダブルタップ操作が認識される度に、変更処理の種類を、表示位置、表示サイズ、表示向きの順にサイクリックに切り替える。順番が最後の表示向きが選択された状態でダブルタップ操作が認識された場合、選択処理部85は、順番が最初の表示位置に戻って選択する。アジャストモードに移行した初期段階では、順番が最初の表示位置が選択されている。この場合の選択肢情報は、表示位置、表示サイズ、表示向きのいずれかである。   In the adjustment mode, as shown in FIG. 18, the selection processing unit 85 cyclically switches the type of change processing in the order of display position, display size, and display orientation each time a double tap operation is recognized. When the double tap operation is recognized in a state where the last display orientation is selected, the selection processing unit 85 returns to the first display position and selects. At the initial stage of transition to the adjustment mode, the first display position is selected. The option information in this case is any of the display position, the display size, and the display direction.

一方、オブザーブモードにおいては、選択処理部85は、図19に示すように、ダブルタップ操作が認識される度に、変更処理の対象である構造物を、皮膚46、皮下組織47、筋組織48、骨49、内臓50、病変51の順にサイクリックに切り替える。内臓50が肝臓50A、胃50B等、複数種類ある場合は、各内臓が1つの選択肢として扱われる。この場合も図18の場合と同じく、順番が最後の病変51が選択された状態でダブルタップ操作が認識された場合、選択処理部85は、順番が最初の皮膚46に戻って選択する。オブザーブモードに移行した初期段階では、順番が最初の皮膚46が選択されている。この場合の選択肢情報は、上記複数の構造物46〜51のいずれかである。なお、皮膚46、皮下組織47、筋組織48を、まとめて1つの選択肢、例えば体表として扱ってもよい。   On the other hand, in the observation mode, as shown in FIG. 19, the selection processing unit 85 selects the structure to be subjected to the modification process as the skin 46, the subcutaneous tissue 47, and the muscle tissue 48 each time the double tap operation is recognized. , Bone 49, viscera 50, and lesion 51 are cyclically switched in this order. When there are multiple types of internal organs 50 such as liver 50A, stomach 50B, etc., each internal organ is treated as one option. Also in this case, as in the case of FIG. 18, when the double tap operation is recognized in a state where the lesion 51 whose order is the last is selected, the selection processing unit 85 returns to the first skin 46 and selects it. At the initial stage of transition to the observation mode, the first skin 46 is selected. The option information in this case is any of the plurality of structures 46 to 51. The skin 46, the subcutaneous tissue 47, and the muscle tissue 48 may be collectively treated as one option, for example, a body surface.

各構造物の名称は、音声認識部で認識する特定音声としても予め登録されている。このため、オブザーブモードでは、ダブルタップ操作の替わりに、各構造物の名称をユーザ15が発話することで、各構造物を直接選択することも可能である。   The names of the respective structures are also registered in advance as specific voices recognized by the voice recognition unit. Therefore, in the observation mode, each structure can be directly selected by the user 15 uttering the name of each structure instead of the double tap operation.

図20は、アジャストモード(表示位置)における3D画像40の表示位置の変更処理を示す図である。矢印の上段は、ユーザ15が、手37の2本の指38の指先同士を接触させ、まさにタップアンドホールド操作を開始しようとしている状態である。この状態から矢印の下段に示すように、ユーザ15が手37を右から左に移動させた場合、操作認識部80でタップアンドホールド操作の左スライド操作が認識される。   FIG. 20 is a diagram showing a process of changing the display position of the 3D image 40 in the adjustment mode (display position). The upper part of the arrow indicates that the user 15 is trying to bring the fingertips of the two fingers 38 of the hand 37 into contact with each other and to start the tap-and-hold operation. From this state, as shown in the lower part of the arrow, when the user 15 moves the hand 37 from right to left, the operation recognition unit 80 recognizes the left slide operation of the tap-and-hold operation.

図16に示す第2対応情報67によれば、アジャストモード(表示位置)の場合のタップアンドホールド操作の左スライド操作には、3D画像40の表示位置を左に移動する変更コマンドが割り当てられている。このため、変更処理部86は、3D画像40の表示位置を左に移動する変更処理を行う。この場合の変更情報は、3D画像40の表示位置の左方への変位量である。変位量は、手37の移動距離に応じて変わり、手37の移動距離が大きい程、変位量も大きくなる。   According to the second correspondence information 67 shown in FIG. 16, a change command for moving the display position of the 3D image 40 to the left is assigned to the left slide operation of the tap and hold operation in the adjust mode (display position). There is. Therefore, the change processing unit 86 performs a change process of moving the display position of the 3D image 40 to the left. The change information in this case is the amount of displacement of the display position of the 3D image 40 to the left. The displacement amount changes according to the movement distance of the hand 37, and the displacement amount also increases as the movement distance of the hand 37 increases.

図21は、アジャストモード(表示サイズ)における3D画像40の表示サイズの変更処理を示す図である。矢印の上段は、図20の矢印の上段と同じく、ユーザ15がタップアンドホールド操作を開始しようとしている状態である。矢印の下段も、図20の矢印の下段と同じく、ユーザ15が手37を右から左に移動させた状態である。この場合も操作認識部80でタップアンドホールド操作の左スライド操作が認識される。   FIG. 21 is a diagram showing a process of changing the display size of the 3D image 40 in the adjustment mode (display size). The upper part of the arrow is a state where the user 15 is about to start the tap-and-hold operation, as in the upper part of the arrow in FIG. The lower part of the arrow is also in a state in which the user 15 moves the hand 37 from the right to the left, as in the lower part of the arrow in FIG. Also in this case, the operation recognition unit 80 recognizes the left slide operation of the tap-and-hold operation.

ただし、図16によれば、アジャストモード(表示サイズ)の場合のタップアンドホールド操作の左スライド操作には、3D画像40の表示サイズを縮小する変更コマンドが割り当てられているので、変更処理部86は、3D画像40の表示サイズを縮小する変更処理を行う。この場合の変更情報は、3D画像40の表示サイズの縮小率である。縮小率も図20の変位量と同じく、手37の移動距離が大きい程、大きくなる。   However, according to FIG. 16, since the change command for reducing the display size of the 3D image 40 is assigned to the left slide operation of the tap-and-hold operation in the adjustment mode (display size), the change processing unit 86 Performs a change process to reduce the display size of the 3D image 40. The change information in this case is a reduction rate of the display size of the 3D image 40. The reduction ratio also increases as the movement distance of the hand 37 increases, as in the displacement amount of FIG.

図22は、アジャストモード(表示向き)における3D画像40の表示向きの変更処理を示す図である。この場合も図20および図21の場合と同じく、操作認識部80でタップアンドホールド操作の左スライド操作が認識された場合を例示している。   FIG. 22 is a diagram showing a process of changing the display orientation of the 3D image 40 in the adjustment mode (display orientation). Also in this case, as in the case of FIG. 20 and FIG. 21, the case where the left slide operation of the tap-and-hold operation is recognized by the operation recognition unit 80 is illustrated.

ただし、図17によれば、アジャストモード(表示向き)の場合のタップアンドホールド操作の左スライド操作には、3D画像40の表示向きを鉛直軸左回りに回転する変更コマンドが割り当てられているので、変更処理部86は、3D画像40の表示向きを鉛直軸左回りに回転する変更処理を行う。この場合の変更情報は、3D画像40の回転量である。回転量も、手37の移動距離が大きい程、大きくなる。   However, according to FIG. 17, a change command for rotating the display direction of the 3D image 40 counterclockwise is assigned to the left slide operation of the tap-and-hold operation in the adjustment mode (display direction). The change processing unit 86 performs a change process of rotating the display direction of the 3D image 40 counterclockwise to the vertical axis. The change information in this case is the amount of rotation of the 3D image 40. The amount of rotation also increases as the movement distance of the hand 37 increases.

図23は、オブザーブモードにおける3D画像40の透過率変更処理を示す図である。この場合は図20〜図22とは逆に、操作認識部80でタップアンドホールド操作の右スライド操作が認識された場合を例示している。また、構造物として皮膚46が選択されている場合を例示している。   FIG. 23 is a diagram showing the process of changing the transmittance of the 3D image 40 in the observation mode. In this case, contrary to FIGS. 20 to 22, a case where the right slide operation of the tap-and-hold operation is recognized by the operation recognition unit 80 is illustrated. Moreover, the case where the skin 46 is selected as a structure is illustrated.

図17によれば、オブザーブモードの場合のタップアンドホールド操作の右スライド操作には、選択された構造物の透過率を増加する変更コマンドが割り当てられている。このため、変更処理部86は、3D画像40の選択された構造物、この場合は皮膚46の透過率を増加する透過率変更処理を行う。この場合の変更情報は透過率であり、透過率は手37の移動距離が大きい程、変位幅も大きくなる。   According to FIG. 17, the change command which increases the transmittance of the selected structure is assigned to the right slide operation of the tap and hold operation in the case of the observation mode. For this reason, the change processing unit 86 performs a transmittance changing process to increase the transmittance of the selected structure of the 3D image 40, in this case, the skin 46. The change information in this case is the transmittance, and as the transmittance of the hand 37 increases, the displacement width also increases.

図23では、ハッチングで示すように、3D画像40において予め設定された対象領域87の透過率を変更する例を示している。対象領域87は、腹部の大部分をカバーする大きさであり、深さ方向に沿って四角柱状に設定されている。図23では、対象領域87における皮膚46の透過率が増加し、皮膚46の下の構造物である皮下組織47が透けて見えている状態を示している。なお、対象領域87は円柱または楕円柱形状でもよい。また、3D画像40全体を対象領域87としてもよい。   FIG. 23 illustrates an example in which the transmittance of the target area 87 set in advance in the 3D image 40 is changed as indicated by hatching. The target area 87 has a size that covers most of the abdomen, and is set in a square pole shape along the depth direction. In FIG. 23, the transmittance of the skin 46 in the target area 87 is increased, and the subcutaneous tissue 47, which is a structure under the skin 46, is seen through. The target area 87 may have a cylindrical or elliptical cylindrical shape. Further, the entire 3D image 40 may be set as the target area 87.

表示制御部74は、認識部72からの画像表示システム10の使用周辺環境の空間認識結果、並びにユーザ15の頭部の動きの認識結果に基づいて、3D画像取得部71からの3D画像40を編集する。より詳しくは、表示制御部74は、頭部の動きの認識結果で示されるユーザ15の位置から見た場合のサイズおよび向きとなるよう、3D画像40に拡縮処理および回転処理を施す。これらの拡縮処理および回転処理は、変更処理部86の表示サイズおよび表示向きの変更処理とは別に独立して行われる。   The display control unit 74 determines the 3D image 40 from the 3D image acquisition unit 71 based on the space recognition result of the use peripheral environment of the image display system 10 from the recognition unit 72 and the recognition result of the movement of the head of the user 15 To edit. More specifically, the display control unit 74 performs enlargement / reduction processing and rotation processing on the 3D image 40 so as to have the size and the orientation as viewed from the position of the user 15 indicated by the recognition result of the head movement. These enlargement / reduction processing and rotation processing are performed independently of the display size and display orientation change processing of the change processing unit 86.

また、表示制御部74は、変更処理部86からの変更情報に基づいて、3D画像40を編集する。例えば変更処理部86から変更情報として3D画像40の表示サイズの縮小率が与えられた場合、図21の矢印の下段に示すように、表示制御部74は、与えられた縮小率で3D画像40を縮小する。   Further, the display control unit 74 edits the 3D image 40 based on the change information from the change processing unit 86. For example, when the reduction ratio of the display size of the 3D image 40 is given as the change information from the change processing unit 86, as shown in the lower part of the arrow in FIG. To reduce

図24および図25は、仮想空間VSに表示される仮想画像の詳細を示す。図24はアジャストモードの場合、図25はオブザーブモードの場合をそれぞれ示す。表示制御部74は、3D画像40およびカーソル41に加えて、アジャストモード表示バー90およびオブザーブモード表示バー91を仮想画像として仮想空間VSに表示する。   24 and 25 show details of the virtual image displayed in the virtual space VS. FIG. 24 shows the case of the adjustment mode, and FIG. 25 shows the case of the observation mode. The display control unit 74 displays the adjustment mode display bar 90 and the observation mode display bar 91 as a virtual image in the virtual space VS in addition to the 3D image 40 and the cursor 41.

表示制御部74は、仮想空間VSの下部中央の対称な位置に各表示バー90、91を表示する。また、表示制御部74は、各表示バー90、91を半透明とし、各表示バー90、91を通して、ユーザ15が3D画像40および実在オブジェクトを視認可能としている。   The display control unit 74 displays the display bars 90 and 91 at symmetrical positions in the lower center of the virtual space VS. Further, the display control unit 74 makes the display bars 90 and 91 translucent, and allows the user 15 to visually recognize the 3D image 40 and the real object through the display bars 90 and 91.

アジャストモード表示バー90には、アジャストモードにおける選択肢である表示位置、表示サイズ、表示向きをそれぞれ表すアイコン90A、90B、90Cが順番に並べられている。すなわち、アジャストモード表示バー90は、複数の選択肢を順番に並べたメニューバーに相当する。表示位置のアイコン90Aは十字の矢印形状であり、表示サイズのアイコン90Bは虫眼鏡の形状であり、表示向きのアイコン90Cは2つの楕円の矢印を直角に交差させた形状である。   On the adjustment mode display bar 90, icons 90A, 90B, and 90C, which represent the display position, the display size, and the display direction, which are options in the adjustment mode, are arranged in order. That is, the adjustment mode display bar 90 corresponds to a menu bar in which a plurality of options are arranged in order. The display position icon 90A is a cross arrow shape, the display size icon 90B is a magnifying glass shape, and the display orientation icon 90C is a shape in which two oval arrows cross at right angles.

図24において、アジャストモードでは、モードがアジャストモードであることをユーザ15に報せるために、ハッチングで示すようにアジャストモード表示バー90がフォーカス表示される。逆に図25のオブザーブモードの場合は、オブザーブモード表示バー91がフォーカス表示される。   In FIG. 24, in the adjust mode, in order to notify the user 15 that the mode is the adjust mode, the adjust mode display bar 90 is focused and displayed as hatched. Conversely, in the case of the observation mode of FIG. 25, the observation mode display bar 91 is displayed in focus.

フォーカス表示とは、複数の選択肢のうちの選択されている選択肢を、他の選択肢と区別して表示することをいう。フォーカス表示には、例えば選択されている選択肢を赤色、他の選択肢を灰色(グレーアウト)で表示する等、選択されている選択肢と他の選択肢とを異なる色で表示したり、選択されている選択肢のみを枠で囲んだり、あるいは選択されている選択肢の表示サイズを大きく表示させて目立たせる表示手法がとられる。図24および図25では、現在選択中の一方のモードの表示バーが例えば紺色、他方のモードの表示バーが例えば灰色で表示される。   Focus display refers to displaying a selected option among a plurality of options in distinction from other options. In the focus display, for example, the selected option and the other option are displayed in different colors, such as displaying the selected option in red and the other options in gray (gray out), or the selected option A display method is adopted in which only the frame is surrounded or the display size of the selected option is made to be large and noticeable. In FIGS. 24 and 25, the display bar of one mode currently selected is displayed, for example, in amber, and the display bar of the other mode is displayed, for example, in gray.

図24において、表示制御部74は、各アイコン90A〜90Cのうち、選択処理部85で選択された1つの選択肢のアイコンをフォーカス表示する。図24では、選択処理部85で1つの選択肢として表示位置が選択され、ハッチングおよび破線の枠92で示すように、表示位置のアイコン90Aがフォーカス表示されている様子を示している。この場合のフォーカス表示は、例えば、選択された選択肢のアイコンを白色、他のアイコンを灰色とする、あるいは、選択された選択肢のアイコンを赤色の枠で囲うことで行う。   In FIG. 24, the display control unit 74 focuses and displays an icon of one option selected by the selection processing unit 85 among the icons 90A to 90C. FIG. 24 shows that the display position is selected as one option by the selection processing unit 85, and the icon 90A at the display position is focused and displayed as indicated by the hatched and dashed frame 92. In this case, for example, the icon of the selected option is displayed in white, the other icons are grayed out, or the icon of the selected option is surrounded by a red frame.

表示制御部74は、アジャストモードでは、選択された選択肢のアイコンと同じ形状にカーソル41を変更する。図24では、選択処理部85で1つの選択肢として表示位置が選択されているので、カーソル41は、表示位置のアイコン90Aと同じ十字の矢印形状に変更される。   In the adjust mode, the display control unit 74 changes the cursor 41 to the same shape as the icon of the selected option. In FIG. 24, since the display position is selected as one option in the selection processing unit 85, the cursor 41 is changed to the same cross arrow shape as the icon 90A of the display position.

図25において、オブザーブモードでは、表示制御部74は、構造物リスト95を仮想空間VSの右側に表示する。構造物リスト95には、仮想空間VSにおける表示色を示すカラーバー96とともに、皮膚46、肝臓50Aといった複数の構造物の名称が順番に並べられている。すなわち、構造物リスト95も、アジャストモード表示バー90と同じく、複数の選択肢を順番に並べたメニューバーに相当する。   In FIG. 25, in the observation mode, the display control unit 74 displays the structure list 95 on the right side of the virtual space VS. In the structure list 95, names of a plurality of structures such as the skin 46 and the liver 50A are arranged in order, together with the color bar 96 indicating the display color in the virtual space VS. That is, similarly to the adjustment mode display bar 90, the structure list 95 also corresponds to a menu bar in which a plurality of options are arranged in order.

表示制御部74は、構造物リスト95の各構造物の名称のうち、選択処理部85で選択された1つの選択肢の名称をフォーカス表示する。この場合のフォーカス表示は、例えば、選択処理部85で選択された1つの選択肢の名称を白色、他の名称を灰色とし、かつ選択処理部85で選択された1つの選択肢の名称の表示サイズを、他の名称よりも大きくすることで行う。図25では、選択処理部85で1つの選択肢として皮膚46が選択され、「皮膚」の文字がフォーカス表示されている様子を示している。   The display control unit 74 focuses and displays the name of one option selected by the selection processing unit 85 among the names of the structures in the structure list 95. In this case, for example, the name of one option selected by the selection processing unit 85 is white, the other name is gray, and the display size of the name of one option selected by the selection processing unit 85 is , By making it larger than other names. FIG. 25 shows that the skin 46 is selected as one option by the selection processing unit 85, and the text "skin" is displayed in focus.

また、オブザーブモードでは、表示制御部74は、3D画像40に対してアノテーション97を表示する。アノテーション97は、現在選択されている構造物の名称(ここでは「皮膚」)と、当該構造物の3D画像40上の位置を示す線と、当該構造物の透過率を示す透過率表示バー98とで構成される。表示制御部74は、透過率が0%(当該構造物が完全に視認可能な状態)の場合は、透過率表示バー98の全体を例えば水色で塗り潰す。そして、透過率が増加した場合は塗り潰し部分を減らしていき、透過率100%で塗り潰し部分をなくす。   Further, in the observation mode, the display control unit 74 displays the annotation 97 on the 3D image 40. The annotation 97 indicates the name of the currently selected structure (here, “skin”), a line indicating the position of the structure on the 3D image 40, and a transmittance indicator bar 98 indicating the transmittance of the structure. And consists of When the transmittance is 0% (the state where the structure is completely visible), the display control unit 74 fills the entire transmittance display bar 98 with, for example, light blue. Then, when the transmittance increases, the filled portion is reduced and the filled portion is eliminated with the transmittance of 100%.

表示制御部74は、仮想空間VSの右上部に、終了ボタン103、読込ボタン104、およびリセットボタン105を表示する。終了ボタン103は、作動プログラム65を終了するためのボタンである。終了ボタン103に視点位置(カーソル41)を合わせてシングルタップ操作することで、処理部73に終了コマンドが入力され、作動プログラム65が終了される。   The display control unit 74 displays the end button 103, the read button 104, and the reset button 105 in the upper right portion of the virtual space VS. The end button 103 is a button for ending the operation program 65. By setting the viewpoint position (cursor 41) to the end button 103 and performing single-tap operation, an end command is input to the processing unit 73, and the operation program 65 is ended.

読込ボタン104は、仮想オブジェクトとして表示する3D画像40を選択する際に、3D画像40のファイルアイコンの一覧をHMD11に表示させるためのボタンである。リセットボタン105は、3D画像40の表示を初期表示位置の設定直後に戻すためのボタンである。   The read button 104 is a button for causing the HMD 11 to display a list of file icons of the 3D image 40 when selecting the 3D image 40 to be displayed as a virtual object. The reset button 105 is a button for returning the display of the 3D image 40 immediately after setting of the initial display position.

以下、上記構成による作用について、図26のフローチャートを参照して説明する。まず、カンファレンス室14において、ユーザ15は画像表示システム10を頭部に装着して電源を投入し、オペレーティングシステム上で作動プログラム65を起動する。これにより、制御装置12のCPU57に、認識部72、処理部73、表示制御部74等の各機能部が構築され、制御装置12は、HMD11の制御装置として機能する。   The operation of the above configuration will be described below with reference to the flowchart of FIG. First, in the conference room 14, the user 15 wears the image display system 10 on the head, turns on the power, and starts the operating program 65 on the operating system. As a result, each functional unit such as the recognition unit 72, the processing unit 73, and the display control unit 74 is built in the CPU 57 of the control device 12, and the control device 12 functions as a control device of the HMD 11.

そして、図6のステップST100で示したように、仮想オブジェクトとして表示する対象患者の3D画像40を選択する。これにより3D画像取得部71から3D画像40の配信要求が画像蓄積サーバ19に送信され、画像蓄積サーバ19から3D画像取得部71に3D画像40が配信される。   Then, as shown in step ST100 of FIG. 6, the 3D image 40 of the target patient to be displayed as a virtual object is selected. As a result, a distribution request for the 3D image 40 is transmitted from the 3D image acquisition unit 71 to the image storage server 19, and the 3D image 40 is distributed from the image storage server 19 to the 3D image acquisition unit 71.

ステップST500において、画像蓄積サーバ19からの3D画像40は3D画像取得部71で取得される。ユーザ15は、図6のステップST110で示したように、3D画像40の初期表示位置を設定する。これにより、表示制御部74の制御の下、設定された初期表示位置に3D画像40が表示される(ステップST510、表示制御ステップ)。   In step ST500, the 3D image 40 from the image storage server 19 is acquired by the 3D image acquisition unit 71. The user 15 sets the initial display position of the 3D image 40 as shown in step ST110 of FIG. Thus, under the control of the display control unit 74, the 3D image 40 is displayed at the set initial display position (step ST510, display control step).

ユーザ15は、例えば病変51を詳細に把握するために3D画像40に近付いたり、全体像を把握するために3D画像40から遠ざかったりする。あるいは、ユーザ15は、病変51を違った角度から観察するために、顔の向きや立ち位置を変える。こうしたユーザ15の動きに追従して、表示制御部74により3D画像40の表示が更新される。   The user 15 approaches, for example, the 3D image 40 to grasp the lesion 51 in detail, or moves away from the 3D image 40 to grasp the whole image. Alternatively, the user 15 changes the face orientation and the standing position in order to observe the lesion 51 from different angles. Following the movement of the user 15, the display control unit 74 updates the display of the 3D image 40.

ユーザ15は、3D画像40に対して様々なジェスチャー操作を行う(ステップST520でYES)。制御装置12では、操作認識部80において、センサ情報取得部70で取得したデプスセンサの撮像画像、および第1対応情報66に基づいて、ジェスチャー操作が認識される(ステップST530、操作認識ステップ)。   The user 15 performs various gesture operations on the 3D image 40 (YES in step ST520). In the control device 12, in the operation recognition unit 80, the gesture operation is recognized based on the captured image of the depth sensor acquired by the sensor information acquisition unit 70 and the first correspondence information 66 (step ST530, operation recognition step).

ステップST530で認識したジェスチャー操作がダブルタップ操作であった場合(ステップST540でYES)、選択処理部85で選択処理が行われる(ステップST550、選択処理ステップ)。具体的には、アジャストモードであった場合は、図18で示したように、変更処理の種類である表示位置、表示サイズ、表示向きのうちの1つが選択される。そして、ダブルタップ操作が認識される度に、変更処理の種類が、表示位置、表示サイズ、表示向きの順にサイクリックに切り替えられる。一方、オブザーブモードであった場合は、図19で示したように、変更処理の対象である複数の構造物46〜51のうちの1つが選択される。そして、ダブルタップ操作が認識される度に、変更処理の対象が、複数の構造物46〜51の順にサイクリックに切り替えられる。   If the gesture operation recognized in step ST530 is a double tap operation (YES in step ST540), selection processing is performed in selection processing unit 85 (step ST550, selection processing step). Specifically, in the case of the adjustment mode, as shown in FIG. 18, one of the display position, the display size, and the display orientation, which is the type of change processing, is selected. Then, whenever the double tap operation is recognized, the type of change processing is cyclically switched in the order of the display position, the display size, and the display direction. On the other hand, in the case of the observation mode, as shown in FIG. 19, one of the plurality of structures 46 to 51 to be changed is selected. Then, whenever the double tap operation is recognized, the target of the change process is cyclically switched in the order of the plurality of structures 46 to 51.

ステップST530で認識したジェスチャー操作がタップアンドホールド操作であった場合(ステップST540でNO、ステップST560でYES)、変更処理部86で変更処理が行われる(ステップST570、変更処理ステップ)。具体的には、アジャストモードであった場合は、図20〜図22で示したように、3D画像40の表示位置、表示サイズ、または表示向きのいずれかの変更処理が行われる。オブザーブモードであった場合は、図23で示したように、選択された構造物に対する透過率変更処理が行われる。表示位置、表示サイズ、または表示向きのいずれかの変更処理が行われた場合は、変更情報として、変位量、拡縮率、回転量のいずれかが変更処理部86から表示制御部74に出力される。透過率変更処理が行われた場合は、変更情報として透過率が変更処理部86から表示制御部74に出力される。   If the gesture operation recognized in step ST530 is a tap and hold operation (NO in step ST540, YES in step ST560), the change processing unit 86 performs a change process (step ST570, change process step). Specifically, in the case of the adjustment mode, as shown in FIGS. 20 to 22, any one of the display position, the display size, and the display orientation of the 3D image 40 is changed. In the case of the observation mode, as shown in FIG. 23, the transmittance changing process is performed on the selected structure. When any one of the display position, display size, and display orientation is changed, any one of the displacement amount, the scaling ratio, and the rotation amount is output from the change processing unit 86 to the display control unit 74 as the change information. Ru. When the transmittance changing process is performed, the transmittance is output from the change processing unit 86 to the display control unit 74 as the change information.

ステップST530で認識したジェスチャー操作がダブルタップ操作、タップアンドホールド操作のいずれでもなかった場合(ステップST540、ST560でともにNO)、すなわちシングルタップ操作であった場合は、処理部73でその他の処理が行われる(ステップST580)。例えばアジャストモードにおいてシングルタップ操作が行われた場合、オブザーブモードに移行するモード切替処理が行われる。また、終了ボタン103への視点位置合わせを伴うシングルタップ操作が行われた場合、作動プログラム65の終了処理が行われる(ステップST590でYES)。作動プログラム65の終了処理が行われなかった場合(ステップST590でNO)は、必要に応じて表示制御部74により3D画像40が編集された後、ステップST510に戻る。   If the gesture operation recognized in step ST530 is neither a double tap operation nor a tap and hold operation (both in step ST540 and ST560 NO), that is, if it is a single tap operation, the processing unit 73 performs other processing. It is performed (step ST580). For example, when a single tap operation is performed in the adjustment mode, a mode switching process of shifting to the observation mode is performed. Also, when a single tap operation involving viewpoint position alignment to the end button 103 is performed, the end process of the operation program 65 is performed (YES in step ST590). If the termination process of the operation program 65 is not performed (NO in step ST590), the 3D image 40 is edited by the display control unit 74 as necessary, and then the process returns to step ST510.

複数の選択肢のうちの1つの選択肢を選択する選択操作をダブルタップ操作とし、3D画像40の表示態様を変更する変更処理を行わせるための変更操作をタップアンドホールド操作とするので、選択操作と変更操作を明確に区別することができ、選択操作と変更操作のうちの一方を他方と誤認識するおそれがない。このため、誤認識によってユーザの意図しない処理が行われてしまうことがない。したがって、ジェスチャー操作の誤認識を効果的に防止し、使い勝手を向上させることができる。   The selection operation for selecting one of a plurality of options is a double-tap operation, and the change operation for changing the display mode of the 3D image 40 is a tap-and-hold operation. The change operation can be clearly distinguished, and there is no possibility that one of the selection operation and the change operation is mistakenly recognized as the other. For this reason, processing that is not intended by the user is not performed due to misrecognition. Therefore, false recognition of the gesture operation can be effectively prevented, and usability can be improved.

表示制御部74は、アジャストモードにおける選択肢である表示位置、表示サイズ、表示向きのそれぞれのアイコン90A〜90Cを順番に並べたアジャストモード表示バー90、およびオブザーブモードにおける選択肢である複数の構造物の名称を順番に並べた構造物リスト95を仮想空間VSに表示し、これらアジャストモード表示バー90および構造物リスト95において、選択された1つの選択肢をフォーカス表示するので、ユーザ15は、自分が今どの選択肢を選択しているのかが一目で分かる。視点位置合わせを伴うことなくダブルタップ操作のみで選択肢をサイクリックに切り替えた場合は特に、ユーザ15は現在選択している選択肢を見失いがちになるが、こうしたフォーカス表示によれば、選択中の選択肢を見失うことは確実に防がれる。   The display control unit 74 has an adjust mode display bar 90 in which icons 90A to 90C of display position, display size, and display orientation, which are options in the adjust mode, are arranged in order, and a plurality of structures which are options in the observe mode. The structure list 95 in which the names are arranged in order is displayed in the virtual space VS, and the selected one option is displayed in focus in the adjustment mode display bar 90 and the structure list 95, so that the user 15 can You can see at a glance which option is selected. Especially when the option is cyclically switched only by double tap operation without the viewpoint alignment, the user 15 tends to lose sight of the currently selected option. According to such a focus display, the selected option is selected Losing is definitely prevented.

変更処理の種類は、3D画像40の表示位置、表示サイズ、および表示向きの3種類である。このため、変更処理の種類を選択肢とし、これをサイクリックに切り替えたとしても、僅か3回のダブルタップ操作で選択肢が1周する。したがって、所望の選択肢を選択する際のユーザ15に掛かるジェスチャー操作のストレスは比較的低いといえる。   There are three types of change processing, the display position of the 3D image 40, the display size, and the display orientation. For this reason, even if the type of change process is selected and cyclic switching is performed, the option makes one round with only three double tap operations. Therefore, it can be said that the stress of the gesture operation applied to the user 15 when selecting a desired option is relatively low.

対して変更処理の対象である複数の構造物は数が比較的多く、その分、所望の選択肢を選択する際のジェスチャー操作のストレスは、変更処理の種類の場合よりもユーザ15に掛かる。このため、上記第1実施形態では、各構造物の名称をユーザ15が発話することで、各構造物を選択することも可能としている。   On the other hand, the number of structures to be subjected to the change process is relatively large, and accordingly, the stress of the gesture operation when selecting the desired option affects the user 15 more than the case of the change process type. Therefore, in the first embodiment, the user 15 can select each structure by uttering the name of each structure.

ここで、ユーザ15に掛かるジェスチャー操作のストレスを軽減するため、ダブルタップ操作で構造物をサイクリックに切り替えるのではなく、視点位置合わせを伴う選択操作で構造物を選択する方法も考えられる。視点位置合わせを伴う構造物の選択操作は、具体的にはカーソル41を所望の構造物に合わせた状態で何らかのジェスチャー操作を行う方法である。しかしながら、こうした視点位置合わせを伴う選択操作で構造物を選択する方法を採用した場合、透過率の変更前は視認不能な内臓50や、内臓50の微小な一部分である病変51といった箇所には視点位置(カーソル41)を合わせにくいので、かえって視点位置合わせの方がユーザ15にとってストレスとなる。したがって、変更処理の対象である複数の構造物を選択肢とし、これをダブルタップ操作でサイクリックに切り替えることで、結果的にはユーザ15に掛かるストレスを軽減することができる。   Here, in order to reduce the stress of the gesture operation applied to the user 15, a method may be considered in which the structure is selected not by cyclically switching the structure by the double tap operation, but by a selection operation involving viewpoint alignment. Specifically, the operation of selecting a structure accompanied by viewpoint alignment is a method of performing some kind of gesture operation in a state where the cursor 41 is aligned with a desired structure. However, when a method of selecting a structure by a selection operation involving such viewpoint alignment is adopted, viewpoints are made at places such as the viscera 50 which are not visible before changing the transmittance, and the lesion 51 which is a minute part of the visceral 50. Since it is difficult to align the position (cursor 41), the viewpoint alignment is more stressful for the user 15. Therefore, the stress applied to the user 15 can be reduced as a result by selecting a plurality of structures to be changed as options and cyclically switching the structures by double tap operation.

変更操作は、表示位置、表示サイズ、表示向き、あるいは透過率等、変位量、拡縮率、回転量、透過率といった数値を増減する操作である。このため、変更操作としては、シングルタップ操作やダブルタップ操作といった指38を叩くジェスチャー操作ではなく、タップアンドホールド操作のように、右左、上下等、数値の増減をユーザ15がイメージ可能なスライド操作が妥当である。   The change operation is an operation to increase / decrease numerical values such as a displacement amount, a scaling ratio, a rotation amount, and a transmittance, such as a display position, a display size, a display direction, or a transmittance. For this reason, as a change operation, not a gesture operation such as a single tap operation or a double tap operation which strikes the finger 38, but a slide operation in which the user 15 can image increase and decrease of numerical values such as right and left and up and down like tap and hold operation. Is reasonable.

ここで、図12で示したように、タップアンドホールド操作のGC1、GC2の手37の動きは、図10で示したシングルタップ操作のGA1、GA2の手37の動きと同じである。このため、ユーザ15がタップアンドホールド操作を行おうとして手37をGC1、GC2のように動かした後、気が変わってタップアンドホールド操作を止めてしまった場合は、まさしく手37の動きが図10で示したシングルタップ操作と同じになる。したがって、この場合は操作認識部80でシングルタップ操作と誤認識するおそれがある。   Here, as shown in FIG. 12, the movement of the hands 37 of GC1 and GC2 in the tap-and-hold operation is the same as the movement of the hands 37 of GA1 and GA2 in the single-tap operation shown in FIG. Therefore, if the user 15 moves the hand 37 like GC1 or GC2 in order to perform tap-and-hold operation, if the user changes his mind and stops the tap-and-hold operation, the movement of the hand 37 is exactly as illustrated. It is the same as the single tap operation shown at 10. Therefore, in this case, there is a possibility that the operation recognition unit 80 erroneously recognizes a single tap operation.

このため、もしダブルタップ操作ではなくシングルタップ操作を選択操作として採用した場合は、変更操作であるタップアンドホールド操作を、選択操作であるシングルタップ操作と誤認識するおそれがある。そこで、シングルタップ操作ではなくダブルタップ操作を選択操作として採用している。これにより、シングルタップ操作と誤認識しやすいが、変更操作として妥当なタップアンドホールド操作を採用した場合でも、選択操作と変更操作の誤認識を効果的に防止することができる。   For this reason, if a single tap operation, not a double tap operation, is adopted as a selection operation, there is a risk that the tap and hold operation, which is a change operation, is mistakenly recognized as a single tap operation, which is a selection operation. Therefore, instead of single tap operation, double tap operation is adopted as selection operation. As a result, it is easy to misinterpret as a single tap operation, but even when a proper tap-and-hold operation is adopted as the change operation, it is possible to effectively prevent the erroneous recognition of the selection operation and the change operation.

なお、スライド操作としては、タップアンドホールド操作に限らず、例えば人差し指等の1本の指38の指先を立てた状態で、手首、肘、肩のいずれかを支点として手37を移動させるものでもよい。   The slide operation is not limited to the tap-and-hold operation. For example, in a state where the finger of one finger 38 such as a forefinger stands, the hand 37 is moved with any of the wrist, elbow, or shoulder as a fulcrum Good.

[第2実施形態]
上記第1実施形態では、ダブルタップ操作の有無に関わらず、メニューバーとしてのアジャストモード表示バー90および構造物リスト95を仮想空間VSに表示しているが、図27に示す第2実施形態では、ダブルタップ操作が認識された場合にのみメニューバーを表示する。
Second Embodiment
In the first embodiment, the adjust mode display bar 90 as a menu bar and the structure list 95 are displayed in the virtual space VS regardless of the presence or absence of the double tap operation. However, in the second embodiment shown in FIG. , Display the menu bar only when double-tap operation is recognized.

図27は、アジャストモード表示バー90の例を示す。矢印の上段は、変更処理の種類のうちの表示位置が選択されている状態である。この状態では、表示制御部74は、仮想空間VSにアジャストモード表示バー90を表示しない。この矢印の上段の状態から、変更処理の種類を表示位置から表示サイズに切り替えるためにユーザ15によりダブルタップ操作が行われ、このダブルタップ操作が操作認識部80で認識された場合、表示制御部74は、矢印の下段に示すように、仮想空間VSにアジャストモード表示バー90を表示する。そして、所定時間、例えば5秒経過後、アジャストモード表示バー90を消去する。   FIG. 27 shows an example of the adjustment mode display bar 90. The upper part of the arrow indicates that the display position of the type of change processing is selected. In this state, the display control unit 74 does not display the adjustment mode display bar 90 in the virtual space VS. When the user 15 performs a double-tap operation to switch the type of change processing from the display position to the display size from the upper state of the arrow, and the double-tap operation is recognized by the operation recognition unit 80, the display control unit 74 shows the adjustment mode display bar 90 in the virtual space VS as shown in the lower part of the arrow. Then, after a predetermined time, for example, 5 seconds, the adjustment mode display bar 90 is erased.

このように、ダブルタップ操作が認識された場合にのみアジャストモード表示バー90を表示するので、アジャストモード表示バー90でユーザ15の視界が制限される時間を極力短くすることができる。なお、図27ではアジャストモード表示バー90を例示したが、構造物リスト95も同じく、ダブルタップ操作が認識された場合にのみ表示する構成としてもよい。   As described above, since the adjust mode display bar 90 is displayed only when the double tap operation is recognized, the time in which the view of the user 15 is restricted by the adjust mode display bar 90 can be shortened as much as possible. Although the adjust mode display bar 90 is illustrated in FIG. 27, the structure list 95 may also be displayed only when a double tap operation is recognized.

[第3実施形態]
図28に示す第3実施形態では、ダブルタップ操作が認識された場合にのみメニューバーを表示することに加えて、ユーザ15の視点位置にメニューバーを表示する。
Third Embodiment
In the third embodiment shown in FIG. 28, in addition to displaying the menu bar only when the double tap operation is recognized, the menu bar is displayed at the viewpoint position of the user 15.

図28は、図27の場合と同じくアジャストモード表示バー90の例であり、矢印の上段は、変更処理の種類のうちの表示位置が選択されている状態を示す。この状態からユーザ15によりダブルタップ操作が行われ、このダブルタップ操作が操作認識部80で認識された場合、表示制御部74は、矢印の下段に示すように、仮想空間VSのユーザ15の視点位置、すなわちカーソル41の位置に、アジャストモード表示バー90を表示する。そして、所定時間、例えば5秒経過後、アジャストモード表示バー90を消去する。   FIG. 28 shows an example of the adjustment mode display bar 90 as in the case of FIG. 27. The upper part of the arrow indicates the state in which the display position of the type of change processing is selected. From this state, when the double tap operation is performed by the user 15 and this double tap operation is recognized by the operation recognition unit 80, the display control unit 74 displays the viewpoint of the user 15 of the virtual space VS as shown in the lower part of the arrow. The adjustment mode display bar 90 is displayed at the position, that is, the position of the cursor 41. Then, after a predetermined time, for example, 5 seconds, the adjustment mode display bar 90 is erased.

このように、ユーザ15の視点位置にアジャストモード表示バー90を表示するので、選択中の選択肢を確認する際のユーザ15の視点移動が最小限で済む。対象患者の手術方針の検討においては、ユーザ15の視点は3D画像40に集中していると考えられる。そのため、選択中の選択肢を確認する際のユーザ15の視点移動を最小限とすれば、ユーザ15は3D画像40から視点を逸らさずに対象患者の手術方針を検討することができる。なお、この場合も上記第2実施形態と同じく、構造物リスト95もユーザ15の視点位置に表示する構成としてもよい。   As described above, since the adjust mode display bar 90 is displayed at the viewpoint position of the user 15, the viewpoint movement of the user 15 at the time of confirming the option being selected can be minimized. It is considered that the viewpoint of the user 15 is concentrated on the 3D image 40 in the examination of the surgical procedure of the target patient. Therefore, if the viewpoint movement of the user 15 at the time of confirming the option currently selected is minimized, the user 15 can consider the surgical procedure of the target patient without diverting the viewpoint from the 3D image 40. Also in this case, as in the second embodiment, the structure list 95 may be displayed at the viewpoint of the user 15.

なお、構造物に対する変更処理としては、上記第1実施形態の透過率変更処理に替えて、あるいは加えて、選択された構造物の表示色、明るさ、あるいはシャープネスを変更する処理としてもよい。   In addition, as the change process for the structure, instead of or in addition to the transmittance change process of the first embodiment, the display color, the brightness, or the sharpness of the selected structure may be changed.

さらに、選択された構造物に対して変更処理を施すのではなく、選択された構造物以外の他の構造物全てに一律に変更処理を施してもよい。例えば選択された構造物が肝臓50Aであった場合、肝臓50A以外の他の構造物の皮膚46、皮下組織47、筋組織48、骨49、および他の内臓50の透過率をまとめて変更する。こうすれば、選択された構造物だけを視認したい場合に、他の構造物の透過率を一気に100%に変更することができ好適である。選択された構造物に対して変更処理を施すか、選択された構造物以外の他の構造物に対して変更処理を施すかをユーザ15が切り替え可能な構成としてもよい。   Furthermore, instead of performing the change process on the selected structure, the change process may be uniformly performed on all other structures other than the selected structure. For example, when the selected structure is the liver 50A, the permeability of the skin 46, the subcutaneous tissue 47, the muscle tissue 48, the bone 49, and the other viscera 50 of other structures other than the liver 50A is collectively changed. . In this way, when it is desired to view only the selected structure, the transmittance of the other structure can be rapidly changed to 100%, which is preferable. It may be configured that the user 15 can switch whether to perform the change process on the selected structure or to perform the change process on another structure other than the selected structure.

デプスセンサ等のジェスチャー操作認識ユニットは、画像表示システム10に搭載されていなくてもよい。少なくともユーザ15の手37を撮像可能であれば、ジェスチャー操作認識ユニットの設置位置は問わない。このため、ジェスチャー操作認識ユニットは、ユーザ15が認識する拡張現実空間ARSと同じ視野を撮像するものでなくともよい。例えばジェスチャー操作認識ユニットを、ユーザ15の手37が映り込むカンファレンス室14の壁や天井に設置してもよい。   A gesture operation recognition unit such as a depth sensor may not be mounted on the image display system 10. As long as at least the hand 37 of the user 15 can be imaged, the installation position of the gesture operation recognition unit does not matter. For this reason, the gesture operation recognition unit does not have to image the same field of view as the augmented reality space ARS that the user 15 recognizes. For example, the gesture operation recognition unit may be installed on the wall or ceiling of the conference room 14 where the hand 37 of the user 15 is reflected.

上記各実施形態では、HMD11と制御装置12が一体となった画像表示システム10を例示しているが、本発明はこれに限定されない。図29に示すように、HMD111と制御装置112とが別体となった画像表示システム110でもよい。図29では、制御装置112は、ディスプレイ113とキーボードおよびマウスで構成される入力デバイス114とを有するデスクトップ型のパーソナルコンピュータを例示しているが、ノート型のパーソナルコンピュータであってもよいし、タブレットコンピュータであってもよい。   In the above embodiments, the image display system 10 in which the HMD 11 and the control device 12 are integrated is illustrated, but the present invention is not limited to this. As shown in FIG. 29, the image display system 110 in which the HMD 111 and the control device 112 are separated may be used. Although FIG. 29 illustrates a desktop personal computer having a display 113 and an input device 114 configured of a keyboard and a mouse, the control device 112 may be a notebook personal computer, or a tablet. It may be a computer.

もしくは、図30に示すように、ユーザ15が腰等に付けて携帯可能な携帯コンピュータ122にHMD121の制御装置の機能を担わせた画像表示システム120でもよい。この場合、携帯コンピュータを、市販のパーソナルコンピュータではなく、画像表示システム120に特化した専用の製品としてもよい。   Alternatively, as shown in FIG. 30, the image display system 120 may have the portable computer 122 that can be carried by the user 15 with his / her waist or the like carried by the portable computer 122 to perform the function of the control device of the HMD 121. In this case, the portable computer may be a dedicated product specialized for the image display system 120 instead of a commercially available personal computer.

また、画像蓄積サーバ19がHMDの制御装置の機能の全てまたは一部を担ってもよい。例えば表示制御部74の機能を画像蓄積サーバ19が担ってもよい。あるいは、画像蓄積サーバ19とは別のサーバがHMDの制御装置の機能を担ってもよい。さらには、医療施設13のコンピュータ室18ではなく、外部施設に設置されたネットワークサーバがHMDの制御装置の機能を担ってもよい。画像蓄積サーバ19も外部施設にネットワークサーバとして設置されていてもよい。   Also, the image storage server 19 may be responsible for all or part of the functions of the control device of the HMD. For example, the image storage server 19 may be responsible for the function of the display control unit 74. Alternatively, a server other than the image storage server 19 may be responsible for the control device of the HMD. Furthermore, a network server installed not in the computer room 18 of the medical facility 13 but in an external facility may serve as the control device of the HMD. The image storage server 19 may also be installed as a network server in an external facility.

このように、本発明のHMDの制御装置を構成するコンピュータのハードウェア構成は種々の変形が可能である。HMDの制御装置を、処理能力や信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、センサ情報取得部70および3D画像取得部71の機能と、認識部72および処理部73の機能と、表示制御部74の機能とを、3台のコンピュータに分散して担わせる。この場合は3台のコンピュータでHMDの制御装置を構成する。   As described above, the hardware configuration of the computer constituting the control device of the HMD of the present invention can be variously modified. It is also possible to configure the HMD control device with a plurality of separated computers as hardware for the purpose of improving processing performance and reliability. For example, the functions of the sensor information acquisition unit 70 and the 3D image acquisition unit 71, the functions of the recognition unit 72 and the processing unit 73, and the function of the display control unit 74 are distributed to three computers. In this case, the HMD control device is configured of three computers.

以上のように、コンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム65等のアプリケーションプログラムについても、安全性や信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。   As described above, the hardware configuration of the computer can be appropriately changed in accordance with the required performance such as processing capacity, safety, and reliability. Furthermore, not only hardware but also application programs such as the operation program 65 can of course be duplicated or distributed and stored in a plurality of storage devices for the purpose of securing safety and reliability. is there.

画像表示システム、あるいはHMDは、上記各実施形態のように保護枠27でユーザ15の両眼全体を覆い、装着部26をユーザ15の頭部に固定するタイプに限らない。ユーザ15の耳にかけるテンプル、目頭の下部に当たる鼻当て、スクリーンを保持するリム等を有する眼鏡タイプの画像表示システムを用いてもよい。   The image display system or the HMD is not limited to a type in which the entire user's 15 eyes are covered with the protective frame 27 and the mounting unit 26 is fixed to the head of the user 15 as in the above embodiments. An eyeglass-type image display system may be used that has a temple worn on the user's 15 ear, a nose pad that hits the lower part of the eyes, a rim that holds the screen, and the like.

HMDは、現実空間RSと仮想空間VSを融合させた拡張現実空間ARSをユーザ15に認識させるものに限らない。仮想空間VSのみをユーザ15に認識させるものでもよい。   The HMD is not limited to the one that causes the user 15 to recognize the augmented reality space ARS in which the real space RS and the virtual space VS are fused. Only the virtual space VS may be recognized by the user 15.

3D画像40は、対象患者の上半身の仰向けの画像に限らない。全身の仰向けの画像でもよいし、頭部等の他の部位の画像でもよい。また、構造物としては、上記各実施形態で例示した皮膚46、皮下組織47等の他に、門脈、下大静脈等の血管組織、あるいは脊髄等の神経組織を含めてもよい。   The 3D image 40 is not limited to the supine image of the upper body of the target patient. It may be a supine image of the whole body or an image of another part such as the head. Further, as the structure, in addition to the skin 46, the subcutaneous tissue 47 and the like exemplified in each of the above embodiments, a vascular tissue such as portal vein and inferior vena cava or a nerve tissue such as spinal cord may be included.

上記各実施形態では、画像表示システムの用途として医療施設13内で行われる対象患者の手術方針の検討を例示し、仮想オブジェクトとして3D画像40を例示したが、画像表示システムの用途は対象患者の手術方針の検討に限定されず、したがって仮想オブジェクトも3D画像40に限定されない。例えば画像表示システムの用途をゲーム用途とし、ゲームのキャラクターを仮想オブジェクトとしてもよい。   In each of the above embodiments, the examination of the surgical procedure of the target patient performed in the medical facility 13 is illustrated as the application of the image display system, and the 3D image 40 is illustrated as the virtual object. However, the application of the image display system is the target patient It is not limited to the examination of the surgical procedure, and hence the virtual object is not limited to the 3D image 40. For example, the application of the image display system may be a game application, and the game character may be a virtual object.

上記各実施形態において、例えば、センサ情報取得部70、3D画像取得部71、認識部72、処理部73、表示制御部74、操作認識部80、選択処理部85、変更処理部86といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。   In each of the above-described embodiments, for example, various types of sensor information acquiring unit 70, 3D image acquiring unit 71, recognition unit 72, processing unit 73, display control unit 74, operation recognition unit 80, selection processing unit 85, change processing unit 86 and the like The hardware-like structure of a processing unit (processing unit) that executes processing is various processors as shown below.

各種のプロセッサには、CPU、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、専用電気回路等が含まれる。CPUは、周知のとおりソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサである。PLDは、FPGA(Field Programmable Gate Array) 等の、製造後に回路構成を変更可能なプロセッサである。専用電気回路は、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである。   The various processors include a CPU, a programmable logic device (PLD), a dedicated electric circuit, and the like. The CPU is a general-purpose processor that executes software (program) and functions as various processing units, as is well known. The PLD is a processor that can change the circuit configuration after manufacture, such as an FPGA (Field Programmable Gate Array). The dedicated electric circuit is a processor having a circuit configuration specially designed to execute a specific process such as an application specific integrated circuit (ASIC).

1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。   One processing unit may be configured of one of these various processors, or configured of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA) It may be done. In addition, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units by one processor, first, there is a form in which one processor is configured by a combination of one or more CPUs and software, and this processor functions as a plurality of processing units. . Second, as typified by a system on chip (SoC) or the like, there is a mode using a processor that realizes functions of the entire system including a plurality of processing units by one IC chip. Thus, the various processing units are configured using one or more of the above-described various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。   Furthermore, the hardware-like structure of these various processors is more specifically an electric circuit (circuitry) combining circuit elements such as semiconductor elements.

上記記載から、以下の付記項1に記載のヘッドマウントディスプレイの制御装置を把握することができる。
[付記項1]
ユーザの頭部に装着され、仮想空間を前記ユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置において、
三次元の仮想オブジェクトを前記仮想空間に表示させる表示制御プロセッサと、
前記仮想オブジェクトに対する前記ユーザの手を用いたジェスチャー操作を認識する操作認識プロセッサと、
親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作が前記ジェスチャー操作として認識された場合、前記仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、前記ダブルタップ操作が認識される度に、選択する前記選択肢をサイクリックに切り替える選択処理プロセッサと、
手首、肘、肩のいずれかを支点として手を移動させるスライド操作が前記ジェスチャー操作として認識された場合、前記選択処理プロセッサで選択された前記1つの選択肢に付随する、前記仮想オブジェクトの表示態様を変更する変更処理を行う変更処理プロセッサとを備えるヘッドマウントディスプレイの制御装置。
From the above description, it is possible to grasp the control device of the head mounted display according to the following supplementary item 1.
[Appendix 1]
In a control device for a head mounted display mounted on a user's head and controlling an operation of a head mounted display that causes the user to recognize a virtual space,
A display control processor for displaying a three-dimensional virtual object in the virtual space;
An operation recognition processor that recognizes a gesture operation using the user's hand on the virtual object;
When a double-tap operation in which an operation of pressing at least one finger other than the thumb toward the thumb and then pushing it up twice is recognized as the gesture operation, one of the plurality of options for the virtual object is selected. A selection processing processor that selects an option and switches the option to be selected cyclically each time the double tap operation is recognized;
The display mode of the virtual object associated with the one option selected by the selection processing processor when a slide operation for moving a hand around any of a wrist, an elbow, or a shoulder is recognized as the gesture operation. A control device for a head mounted display, comprising: a change processing processor that performs change processing to be changed.

本発明は、上記各実施形態に限らず、本発明の要旨を逸脱しない限り種々の構成を採り得ることはもちろんである。また、上述の種々の実施形態や種々の変形例を適宜組み合わせることも可能である。また、本発明は、プログラムに加えて、プログラムを記憶する記憶媒体にもおよぶ。   The present invention is not limited to the above embodiments, and it goes without saying that various configurations can be adopted without departing from the scope of the present invention. In addition, it is also possible to appropriately combine the various embodiments and the various modifications described above. The present invention also extends to storage media for storing programs in addition to programs.

10、110、120 画像表示システム
11、111、121 ヘッドマウントディスプレイ(HMD)
12、112、122 制御装置
13 医療施設
14 カンファレンス室
15 ユーザ
17 ネットワーク
18 コンピュータ室
19 画像蓄積サーバ
25 本体部
26 装着部
27 保護枠
28 スクリーン
29 センサ部
30 制御部
31 鼻当て
32 内側リング
33 外側リング
34 スピーカー
36 テーブル
37 手
38 指
40 三次元ボリュームレンダリング画像(3D画像)
41 カーソル
45 CTスキャン画像
46 皮膚
47 皮下組織
48 筋組織
49 骨
50 内臓
50A 肝臓
50B 胃
50C 脾臓
51 病変
55 ストレージデバイス
56 メモリ
57 CPU
58 データバス
65 作動プログラム
66、66A〜66F 第1対応情報
67 第2対応情報
70 センサ情報取得部
71 3D画像取得部
72 認識部
73 処理部
74 表示制御部
80 操作認識部
85 選択処理部
86 変更処理部
87 対象領域
90 アジャストモード表示バー(メニューバー)
90A〜90C アイコン
91 オブザーブモード表示バー
92 枠
95 構造物リスト(メニューバー)
96 カラーバー
97 アノテーション
98 透過率表示バー
103 終了ボタン
104 読込ボタン
105 リセットボタン
ARS 拡張現実空間
RS 現実空間
VS 仮想空間
ST100〜ST130、ST500〜ST590 ステップ
10, 110, 120 Image Display System 11, 111, 121 Head Mounted Display (HMD)
12, 112, 122 Control Device 13 Medical Facility 14 Conference Room 15 User 17 Network 18 Computer Room 19 Image Storage Server 25 Main Unit 26 Mounting Unit 27 Protective Frame 28 Screen 29 Sensor Unit 30 Control Unit 31 Nose Pad 32 Inner Ring 33 Outer Ring 34 speaker 36 table 37 hand 38 finger 40 three-dimensional volume rendering image (3D image)
41 cursor 45 CT scan image 46 skin 47 subcutaneous tissue 48 muscle tissue 49 bone 50 viscera 50A liver 50B stomach 50C spleen 51 lesions 55 storage device 56 memory 57 CPU
58 data bus 65 operation program 66, 66A to 66F first correspondence information 67 second correspondence information 70 sensor information acquisition unit 71 3D image acquisition unit 72 recognition unit 73 processing unit 74 display control unit 80 operation recognition unit 85 selection processing unit 86 change Processing section 87 Target area 90 Adjust mode display bar (menu bar)
90A to 90C Icon 91 Observe mode display bar 92 Frame 95 Structure list (menu bar)
96 color bar 97 annotation 98 transmittance display bar 103 end button 104 read button 105 reset button ARS augmented reality space RS reality space VS virtual space ST100 to ST130, ST500 to ST590 steps

Claims (12)

ユーザの頭部に装着され、仮想空間を前記ユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置において、
三次元の仮想オブジェクトを前記仮想空間に表示させる表示制御部と、
前記仮想オブジェクトに対する前記ユーザの手を用いたジェスチャー操作を認識する操作認識部と、
親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作が前記ジェスチャー操作として認識された場合、前記仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、前記ダブルタップ操作が認識される度に、選択する前記選択肢をサイクリックに切り替える選択処理部と、
手首、肘、肩のいずれかを支点として手を移動させるスライド操作が前記ジェスチャー操作として認識された場合、前記選択処理部で選択された前記1つの選択肢に付随する、前記仮想オブジェクトの表示態様を変更する変更処理を行う変更処理部とを備えるヘッドマウントディスプレイの制御装置。
In a control device for a head mounted display mounted on a user's head and controlling an operation of a head mounted display that causes the user to recognize a virtual space,
A display control unit for displaying a three-dimensional virtual object in the virtual space;
An operation recognition unit that recognizes a gesture operation using the user's hand on the virtual object;
When a double-tap operation in which an operation of pressing at least one finger other than the thumb toward the thumb and then pushing it up twice is recognized as the gesture operation, one of the plurality of options for the virtual object is selected. A selection processing unit that selects an option and switches the option to be selected cyclically each time the double tap operation is recognized;
The display mode of the virtual object associated with the one option selected by the selection processing unit when a slide operation for moving the hand with any one of a wrist, elbow, and shoulder as a fulcrum is recognized as the gesture operation. A control device for a head mounted display, comprising: a change processing unit that performs change processing to be changed.
前記表示制御部は、前記複数の選択肢を順番に並べたメニューバーを前記仮想空間に表示し、
前記メニューバーにおいて、前記選択処理部で選択された前記1つの選択肢をフォーカス表示する請求項1に記載のヘッドマウントディスプレイの制御装置。
The display control unit displays, in the virtual space, a menu bar in which the plurality of options are arranged in order.
The control device for a head mounted display according to claim 1, wherein the one option selected by the selection processing unit is displayed in focus on the menu bar.
前記表示制御部は、前記ダブルタップ操作が前記ジェスチャー操作として認識された場合にのみ前記メニューバーを表示する請求項2に記載のヘッドマウントディスプレイの制御装置。   The control device for a head mounted display according to claim 2, wherein the display control unit displays the menu bar only when the double tap operation is recognized as the gesture operation. 前記表示制御部は、前記ユーザの視点位置に前記メニューバーを表示する請求項3に記載のヘッドマウントディスプレイの制御装置。   The control device of the head mounted display according to claim 3, wherein the display control unit displays the menu bar at a viewpoint position of the user. 前記選択肢は、前記変更処理の種類である、前記仮想オブジェクトの表示位置、表示サイズ、および表示向きである請求項1ないし4のいずれか1項に記載のヘッドマウントディスプレイの制御装置。   The control device for a head mounted display according to any one of claims 1 to 4, wherein the option is a display position, a display size, and a display direction of the virtual object, which is a type of the change process. 前記仮想オブジェクトは複数の構造物を有し、
前記選択肢は、前記変更処理の対象である前記複数の構造物である請求項1ないし5のいずれか1項に記載のヘッドマウントディスプレイの制御装置。
The virtual object has a plurality of structures,
The control device for a head mounted display according to any one of claims 1 to 5, wherein the option is the plurality of structures to be subjected to the change process.
前記変更処理部は、前記複数の構造物のうちの前記選択処理部で選択された1つの構造物の透過率を変更する透過率変更処理を前記変更処理として行う請求項6に記載のヘッドマウントディスプレイの制御装置。   The head mount according to claim 6, wherein the change processing unit performs, as the change processing, a transmittance change process of changing a transmittance of one of the plurality of structures selected by the selection processing unit. Display control device. 前記仮想オブジェクトは、人体の三次元ボリュームレンダリング画像である請求項1ないし7のいずれか1項に記載のヘッドマウントディスプレイの制御装置。   The control device of the head mounted display according to any one of claims 1 to 7, wherein the virtual object is a three-dimensional volume rendering image of a human body. 前記スライド操作は、2本の指の指先を接触させた状態で手を移動させるタップアンドホールド操作である請求項1ないし8のいずれか1項に記載のヘッドマウントディスプレイの制御装置。   The control device for a head mounted display according to any one of claims 1 to 8, wherein the slide operation is a tap-and-hold operation of moving a hand in a state in which the fingertips of two fingers are in contact. ユーザの頭部に装着され、仮想空間を前記ユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置の作動方法において、
三次元の仮想オブジェクトを前記仮想空間に表示させる表示制御ステップと、
前記仮想オブジェクトに対する前記ユーザの手を用いたジェスチャー操作を認識する操作認識ステップと、
親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作が前記ジェスチャー操作として認識された場合、前記仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、前記ダブルタップ操作が認識される度に、選択する前記選択肢をサイクリックに切り替える選択処理ステップと、
手首、肘、肩のいずれかを支点として手を移動させるスライド操作が前記ジェスチャー操作として認識された場合、前記選択処理ステップで選択された前記1つの選択肢に付随する、前記仮想オブジェクトの表示態様を変更する変更処理を行う変更処理ステップとを備えるヘッドマウントディスプレイの制御装置の作動方法。
In a method of operating a control device of a head mounted display mounted on a user's head and controlling an operation of a head mounted display that causes the user to recognize a virtual space,
A display control step of displaying a three-dimensional virtual object in the virtual space;
An operation recognition step of recognizing a gesture operation using the user's hand on the virtual object;
When a double-tap operation in which an operation of pressing at least one finger other than the thumb toward the thumb and then pushing it up twice is recognized as the gesture operation, one of the plurality of options for the virtual object is selected. A selection processing step of selecting an option and cyclically switching the option to be selected each time the double tap operation is recognized;
The display mode of the virtual object associated with the one option selected in the selection processing step is displayed when a slide operation for moving the hand with any one of a wrist, elbow, and shoulder as a fulcrum is recognized as the gesture operation. A method of operating a control device of a head mounted display, comprising: a change processing step of changing the change processing.
ユーザの頭部に装着され、仮想空間を前記ユーザに認識させるヘッドマウントディスプレイの動作を制御するヘッドマウントディスプレイの制御装置の作動プログラムにおいて、
三次元の仮想オブジェクトを前記仮想空間に表示させる表示制御機能と、
前記仮想オブジェクトに対する前記ユーザの手を用いたジェスチャー操作を認識する操作認識機能と、
親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作が前記ジェスチャー操作として認識された場合、前記仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、前記ダブルタップ操作が認識される度に、選択する前記選択肢をサイクリックに切り替える選択処理機能と、
手首、肘、肩のいずれかを支点として手を移動させるスライド操作が前記ジェスチャー操作として認識された場合、前記選択処理機能で選択された前記1つの選択肢に付随する、前記仮想オブジェクトの表示態様を変更する変更処理を行う変更処理機能とを、コンピュータに実行させるヘッドマウントディスプレイの制御装置の作動プログラム。
In an operating program of a control device of a head mounted display mounted on a user's head and controlling an operation of a head mounted display that causes the user to recognize a virtual space,
A display control function for displaying a three-dimensional virtual object in the virtual space;
An operation recognition function of recognizing a gesture operation using the user's hand on the virtual object;
When a double-tap operation in which an operation of pressing at least one finger other than the thumb toward the thumb and then pushing it up twice is recognized as the gesture operation, one of the plurality of options for the virtual object is selected. A selection processing function of selecting an option and cyclically switching the option to be selected each time the double tap operation is recognized;
The display mode of the virtual object associated with the one option selected by the selection processing function when a slide operation for moving the hand with any one of a wrist, an elbow and a shoulder as a fulcrum is recognized as the gesture operation An operating program of a control device of a head mounted display that causes a computer to execute a change processing function that performs change processing to change
ユーザの頭部に装着されるヘッドマウントディスプレイと、前記ヘッドマウントディスプレイの動作を制御する制御装置とを備え、前記ヘッドマウントディスプレイを通じて仮想空間を前記ユーザに認識させる画像表示システムにおいて、
三次元の仮想オブジェクトを前記仮想空間に表示させる表示制御部と、
前記仮想オブジェクトに対する前記ユーザの手を用いたジェスチャー操作を認識する操作認識部と、
親指以外の少なくとも1本の指を親指に向けて押し下げてから押し上げる動作を2回連続して行うダブルタップ操作が前記ジェスチャー操作として認識された場合、前記仮想オブジェクトに関する複数の選択肢のうちの1つの選択肢を選択し、前記ダブルタップ操作が認識される度に、選択する前記選択肢をサイクリックに切り替える選択処理部と、
手首、肘、肩のいずれかを支点として手を移動させるスライド操作が前記ジェスチャー操作として認識された場合、前記選択処理部で選択された前記1つの選択肢に付随する、前記仮想オブジェクトの表示態様を変更する変更処理を行う変更処理部とを備える画像表示システム。
An image display system comprising: a head mounted display mounted on the head of a user; and a control device controlling an operation of the head mounted display, wherein the user is made to recognize the virtual space through the head mounted display.
A display control unit for displaying a three-dimensional virtual object in the virtual space;
An operation recognition unit that recognizes a gesture operation using the user's hand on the virtual object;
When a double-tap operation in which an operation of pressing at least one finger other than the thumb toward the thumb and then pushing it up twice is recognized as the gesture operation, one of the plurality of options for the virtual object is selected. A selection processing unit that selects an option and switches the option to be selected cyclically each time the double tap operation is recognized;
The display mode of the virtual object associated with the one option selected by the selection processing unit when a slide operation for moving the hand with any one of a wrist, elbow, and shoulder as a fulcrum is recognized as the gesture operation. An image display system comprising: a change processing unit that performs change processing to be changed.
JP2017078064A 2017-04-11 2017-04-11 Head-mounted display control device, its operation method and operation program, and image display system Active JP6774367B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017078064A JP6774367B2 (en) 2017-04-11 2017-04-11 Head-mounted display control device, its operation method and operation program, and image display system
EP18162363.8A EP3388921A1 (en) 2017-04-11 2018-03-16 Control device of head mounted display; operation method and operation program thereof; and image display system
US15/928,729 US10429941B2 (en) 2017-04-11 2018-03-22 Control device of head mounted display, operation method and operation program thereof, and image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017078064A JP6774367B2 (en) 2017-04-11 2017-04-11 Head-mounted display control device, its operation method and operation program, and image display system

Publications (2)

Publication Number Publication Date
JP2018180840A true JP2018180840A (en) 2018-11-15
JP6774367B2 JP6774367B2 (en) 2020-10-21

Family

ID=61691699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017078064A Active JP6774367B2 (en) 2017-04-11 2017-04-11 Head-mounted display control device, its operation method and operation program, and image display system

Country Status (3)

Country Link
US (1) US10429941B2 (en)
EP (1) EP3388921A1 (en)
JP (1) JP6774367B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022537574A (en) * 2019-06-18 2022-08-26 ヒューメイン・インコーポレイテッド Cloud computing platform with wearable multimedia device and laser projection system
WO2022196222A1 (en) * 2021-03-16 2022-09-22 ソニーセミコンダクタソリューションズ株式会社 Detection processing device, detection processing method, and information processing system
JP7508492B2 (en) 2019-06-18 2024-07-01 ヒューメイン・インコーポレイテッド Cloud Computing Platform with Wearable Multimedia Device and Laser Projection System

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014107050A1 (en) 2013-01-03 2014-07-10 엘지전자 주식회사 Method and apparatus for transmitting uplink signals in wireless communication system
US10739861B2 (en) * 2018-01-10 2020-08-11 Facebook Technologies, Llc Long distance interaction with artificial reality objects using a near eye display interface
US11500453B2 (en) * 2018-01-30 2022-11-15 Sony Interactive Entertainment Inc. Information processing apparatus
US11169613B2 (en) * 2018-05-30 2021-11-09 Atheer, Inc. Augmented reality task flow optimization systems
US11150746B2 (en) * 2018-06-28 2021-10-19 Google Llc Wearable electronic devices having user interface mirroring based on device position
USD959477S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US11205296B2 (en) * 2019-12-20 2021-12-21 Sap Se 3D data exploration using interactive cuboids
USD959447S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
USD959476S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
CN111700630B (en) * 2020-06-28 2023-03-24 重庆电子工程职业学院 Health detection system based on AR technology
JP2023539962A (en) * 2020-08-14 2023-09-21 ヒーズ アイピー ホールディングス エルエルシー System and method for superimposing virtual images on real-time images

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005322071A (en) * 2004-05-10 2005-11-17 Takenaka Komuten Co Ltd Indication operation recognition device, indication operation recognition method and indication operation recognition program
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2013012158A (en) * 2011-06-30 2013-01-17 Toshiba Corp Electronic apparatus and control method
JP2014071812A (en) * 2012-10-01 2014-04-21 Sony Corp Information processing device, display control method, and program
JP2015088161A (en) * 2013-09-26 2015-05-07 富士通株式会社 Gesture input device, gesture input method, and gesture input program
US20160162020A1 (en) * 2014-12-03 2016-06-09 Taylor Lehman Gaze target application launcher
WO2016168047A1 (en) * 2015-04-15 2016-10-20 Sony Computer Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140123077A1 (en) * 2012-10-29 2014-05-01 Intel Corporation System and method for user interaction and control of electronic devices
GB2507963A (en) * 2012-11-14 2014-05-21 Renergy Sarl Controlling a Graphical User Interface
US20140267024A1 (en) * 2013-03-15 2014-09-18 Eric Jeffrey Keller Computing interface system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005322071A (en) * 2004-05-10 2005-11-17 Takenaka Komuten Co Ltd Indication operation recognition device, indication operation recognition method and indication operation recognition program
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP2013012158A (en) * 2011-06-30 2013-01-17 Toshiba Corp Electronic apparatus and control method
JP2014071812A (en) * 2012-10-01 2014-04-21 Sony Corp Information processing device, display control method, and program
JP2015088161A (en) * 2013-09-26 2015-05-07 富士通株式会社 Gesture input device, gesture input method, and gesture input program
US20160162020A1 (en) * 2014-12-03 2016-06-09 Taylor Lehman Gaze target application launcher
WO2016168047A1 (en) * 2015-04-15 2016-10-20 Sony Computer Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022537574A (en) * 2019-06-18 2022-08-26 ヒューメイン・インコーポレイテッド Cloud computing platform with wearable multimedia device and laser projection system
JP7508492B2 (en) 2019-06-18 2024-07-01 ヒューメイン・インコーポレイテッド Cloud Computing Platform with Wearable Multimedia Device and Laser Projection System
WO2022196222A1 (en) * 2021-03-16 2022-09-22 ソニーセミコンダクタソリューションズ株式会社 Detection processing device, detection processing method, and information processing system

Also Published As

Publication number Publication date
US20180292908A1 (en) 2018-10-11
US10429941B2 (en) 2019-10-01
JP6774367B2 (en) 2020-10-21
EP3388921A1 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
JP6774367B2 (en) Head-mounted display control device, its operation method and operation program, and image display system
US11989930B2 (en) UI for head mounted display system
JP2022017422A (en) Augmented reality surgical navigation
EP2755194B1 (en) 3d virtual training system and method
US20190146653A1 (en) Image display system, and control apparatus for head-mounted display and operation method therefor
JP6116934B2 (en) Icon operation device
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
US10992857B2 (en) Input control device, input control method, and operation system
WO2012081194A1 (en) Medical-treatment assisting apparatus, medical-treatment assisting method, and medical-treatment assisting system
JP6112689B1 (en) Superimposed image display system
EP3907585B1 (en) Systems and methods of controlling an operating room display using an augmented reality headset
US10269453B2 (en) Method and apparatus for providing medical information
CN104156061B (en) Intuitive ability of posture control
CA3117533A1 (en) Ui for head mounted display system
WO2018011105A1 (en) Systems and methods for three dimensional touchless manipulation of medical images
JP6142462B1 (en) Superimposed image display system
CN106095088B (en) A kind of electronic equipment and its image processing method
JP7367041B2 (en) UI for head-mounted display systems
JP7417337B2 (en) Information processing system, information processing method and program
US11771506B2 (en) Method and system for controlling dental machines
JP2021133170A (en) Medical image processing apparatus, medical image processing method and medical image processing program
JP2023184238A (en) Information processing apparatus, information processing method, and program
Ruegger Touchless interaction with 3D images in the operating room
CN117032519A (en) Apparatus, method and graphical user interface for interacting with a three-dimensional environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200923

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201002

R150 Certificate of patent or registration of utility model

Ref document number: 6774367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250