JP2024172049A - IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE - Google Patents

IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE Download PDF

Info

Publication number
JP2024172049A
JP2024172049A JP2023089474A JP2023089474A JP2024172049A JP 2024172049 A JP2024172049 A JP 2024172049A JP 2023089474 A JP2023089474 A JP 2023089474A JP 2023089474 A JP2023089474 A JP 2023089474A JP 2024172049 A JP2024172049 A JP 2024172049A
Authority
JP
Japan
Prior art keywords
model
image
mode
unit
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023089474A
Other languages
Japanese (ja)
Inventor
徳子 永田
Noriko Nagata
航 高柳
Ko Takayanagi
あずさ 大桑
Azusa Okuwa
晃辰 櫻井
Koshin Sakurai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Laiman Co Ltd
Original Assignee
Laiman Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Laiman Co Ltd filed Critical Laiman Co Ltd
Priority to JP2023089474A priority Critical patent/JP2024172049A/en
Publication of JP2024172049A publication Critical patent/JP2024172049A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

To provide a technique for reducing the effort required for creating a highly accurate medical illustration.SOLUTION: An image generation apparatus 10 generates a medical image using a 3D model. The image generation apparatus 10 has: a selection unit 11 which selects a mode on the basis of an instruction from a user; a designation unit 12 which receives a designation of a 3D model from the user; an acquisition unit 13 which acquires the at least one designaged 3D model from a database 30 which stores a 3D model group; a modifying unit 14 which modifies a state of the 3D model on the basis of a request to modify the state of the 3D model, in accordance with the selected mode; and a display control unit 15 which displays an image including the 3D model in the modified state, on a display screen.SELECTED DRAWING: Figure 1

Description

本発明は、画像生成装置、画像の生成方法、プログラム、および画像生成装置を用いて生成された画像に関する。 The present invention relates to an image generating device, an image generating method, a program, and an image generated using the image generating device.

医学論文では、通常、記述内容をより明確にするために解剖図等の挿絵が用いられる。医学論文に用いられる挿絵は、解剖学に基づいた適切な知識の下に作成される必要があり、かつ、論文の著者からの細かな要望に則したものである必要がある。このため従来は、専門的な知識を有するイラストレーターが、論文の著者の細かな要望をくみ取るために時間をかけて打ち合わせを行い、要望に則した挿絵を作成している。 Medical papers usually use illustrations such as anatomical diagrams to make the content clearer. Illustrations used in medical papers need to be created based on proper knowledge of anatomy, and also need to meet the specific requests of the paper's author. For this reason, traditionally, illustrators with specialized knowledge would spend time meeting with the paper's author to understand the specific requests, and then create illustrations that meet those requests.

つまり、医療用のイラストを作成するためには、膨大な労力を費やす必要があった。また、医学分野の教育の観点からも、医療用イラストのニーズは多い。 In other words, a huge amount of effort is required to create medical illustrations. Furthermore, there is a high demand for medical illustrations from the perspective of medical education.

本発明は、以上のような課題に鑑みてなされたものであり、精度の高い医療用のイラストの作成に費やす労力を低減する技術を提供すること例示的目的とする。 The present invention has been made in consideration of the above problems, and has as an illustrative object to provide a technology that reduces the effort required to create highly accurate medical illustrations.

上記目的を達成するために、本発明の一側面としての画像生成装置は、3Dモデルを用いた医療用の画像を生成する画像生成装置であって、ユーザからの指示に基づいてモードを選択する選択部と、前記ユーザからの前記3Dモデルの指定を受け付ける指定部と、指定された少なくとも一つの前記3Dモデルを、3Dモデル群が格納されたデータベースから取得する取得部と、選択された前記モードに応じた、前記3Dモデルに対する状態の変更要求に基づいて、前記3Dモデルの状態を変更させる変更部と、変更された状態の前記3Dモデルを含む画像を表示画面に表示させる表示制御部と、を有することを特徴とする。 In order to achieve the above object, an image generating device according to one aspect of the present invention is an image generating device that generates medical images using a 3D model, and is characterized by having a selection unit that selects a mode based on an instruction from a user, a designation unit that accepts the designation of the 3D model from the user, an acquisition unit that acquires at least one of the designated 3D models from a database in which a group of 3D models is stored, a change unit that changes the state of the 3D model based on a request to change the state of the 3D model according to the selected mode, and a display control unit that displays an image including the 3D model in the changed state on a display screen.

本発明の一態様によれば、精度の高い医療用のイラストの作成に費やす労力を低減する技術を提供することができる。 According to one aspect of the present invention, it is possible to provide a technology that reduces the effort required to create highly accurate medical illustrations.

本実施形態に係る画像生成システムの構成を示す構成図である。1 is a configuration diagram showing a configuration of an image generating system according to an embodiment of the present invention. 画像生成装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing a hardware configuration of the image generating apparatus. モデル選択モードにおける画像生成処理を示すフロー図である。FIG. 13 is a flowchart showing an image generation process in a model selection mode. モデル選択モードで生成される画像の第1の例を説明する図である。FIG. 11 is a diagram illustrating a first example of an image generated in the model selection mode. モデル選択モードで生成される画像の第2の例を説明する図である。FIG. 13 is a diagram illustrating a second example of an image generated in the model selection mode. モデル選択モードで生成される画像の第3の例を説明する図である。FIG. 13 is a diagram illustrating a third example of an image generated in the model selection mode. モデル選択モードで生成される画像の第4の例を説明する図である。FIG. 13 is a diagram illustrating a fourth example of an image generated in the model selection mode. モデル選択モードで生成される画像の第5の例を説明する図である。FIG. 13 is a diagram illustrating a fifth example of an image generated in the model selection mode. モデル配置モードにおける画像生成処理を示すフロー図である。FIG. 11 is a flow diagram showing an image generation process in a model placement mode. モデル配置モードで生成される画像の例を説明する図である。FIG. 13 is a diagram illustrating an example of an image generated in the model placement mode. 視線選択がされた場合に生成される画像の例を説明する図である。11A and 11B are diagrams illustrating an example of an image generated when a gaze selection is performed. ポーズ変更モードにおける画像生成処理を示すフロー図である。FIG. 13 is a flowchart showing an image generation process in a pose change mode. ポーズ変更モードで生成される画像の例を説明する図である。11A and 11B are diagrams illustrating examples of images generated in a pose change mode. エコーモードにおける画像生成処理を示すフロー図である。FIG. 11 is a flow diagram showing an image generation process in an echo mode. エコーモードで生成される画像の例を説明する図である。1A and 1B are diagrams illustrating examples of images generated in echo mode. 内視鏡モードにおける画像生成処理を示すフロー図である。FIG. 11 is a flowchart showing image generation processing in an endoscope mode. 内視鏡モードで生成される画像の例を説明する図である。11A and 11B are diagrams illustrating an example of an image generated in an endoscope mode.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。更に、添付図面においては、同一もしくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

<システム構成>
図1は、本実施形態に係る画像生成システム1の構成を示す構成図である。画像生成システム1は、画像生成装置10と、クライアント装置20と、データベース30と、管理者装置40と、を含む。画像生成システム1は、ユーザによる入力操作に基づいて3Dモデルを用いた医療用の画像を生成するシステムである。画像生成システム1では、3Dモデルをユーザが思い描く状態に自由に変更し、該状態の画像を取得することができる。画像生成装置10とクライアント装置20、画像生成装置10とデータベース30、画像生成装置10と管理者装置40はそれぞれ、ネットワーク50を介して通信可能に接続されている。ネットワーク50は、例えば、インターネットやWAN(Wide Area Network)、LAN(Local Area Network)、WiFiなどの無線基地局、プロバイダ装置、専用回線などを含む。なお、本実施形態では、画像生成装置10とデータベース30が別体の装置である例を説明するが、データベース30が画像生成装置10の機能を有していてもよい。また、画像生成装置10が管理者装置40の機能を有していてもよい。
<System Configuration>
FIG. 1 is a configuration diagram showing the configuration of an image generating system 1 according to the present embodiment. The image generating system 1 includes an image generating device 10, a client device 20, a database 30, and an administrator device 40. The image generating system 1 is a system that generates a medical image using a 3D model based on an input operation by a user. In the image generating system 1, the 3D model can be freely changed to a state that the user envisions, and an image of that state can be acquired. The image generating device 10 and the client device 20, the image generating device 10 and the database 30, and the image generating device 10 and the administrator device 40 are each connected to be able to communicate with each other via a network 50. The network 50 includes, for example, the Internet, a wide area network (WAN), a local area network (LAN), a wireless base station such as WiFi, a provider device, a dedicated line, and the like. Note that in this embodiment, an example will be described in which the image generating device 10 and the database 30 are separate devices, but the database 30 may have the functions of the image generating device 10. Moreover, the image generating device 10 may have the functions of the administrator device 40 .

まず、クライアント装置20について説明する。クライアント装置20は、ユーザからの指示に基づいて、画像生成装置10における画像生成処理を行うための操作画面、および画像生成装置10によって生成された画像を表示するコンピュータ(情報処理装置)である。クライアント装置20は、例えば、PC(Personal Computer)、タブレットPC、スマートフォン等である。ユーザは、クライアント装置20を用いて、画像生成装置10による画像生成のための指令を入力する。クライアント装置20は、ユーザからの操作入力を受け付けるタッチパネルやキーボード、マウス等の入力装置を含む。また、クライアント装置20は、液晶ディスプレイパネル、プラズマディスプレイパネル、有機ELディスプレイパネル等の表示装置も含む。表示装置は、画像生成装置10における画像生成処理を行うための操作画面、および画像生成装置10によって生成された画像を表示する。また、クライアント装置20は、プログラム等を実行するための制御部としてのCPUを含む。 First, the client device 20 will be described. The client device 20 is a computer (information processing device) that displays an operation screen for performing image generation processing in the image generating device 10 and an image generated by the image generating device 10 based on instructions from a user. The client device 20 is, for example, a PC (Personal Computer), a tablet PC, a smartphone, etc. A user uses the client device 20 to input an instruction for image generation by the image generating device 10. The client device 20 includes an input device such as a touch panel, a keyboard, or a mouse that accepts operation input from the user. The client device 20 also includes a display device such as a liquid crystal display panel, a plasma display panel, or an organic EL display panel. The display device displays an operation screen for performing image generation processing in the image generating device 10 and an image generated by the image generating device 10. The client device 20 also includes a CPU as a control unit for executing programs, etc.

次に、画像生成装置10について説明する。画像生成装置10は、複数のモードを有し、クライアント装置20を用いて入力されたユーザからの操作に基づいて、3Dモデルを用いた医療用の画像を生成するコンピュータであり、例えば、サーバ装置である。画像生成装置10は、例えば、クラウドコンピューティング技術を利用したクラウドサーバによって実現されてもよい。画像生成装置10は、選択部11と、指定部12と、取得部13と、変更部14と、表示制御部15と、出力部16と、を備える。 Next, the image generating device 10 will be described. The image generating device 10 is a computer, e.g., a server device, that has multiple modes and generates medical images using 3D models based on user operations input using a client device 20. The image generating device 10 may be realized, for example, by a cloud server that uses cloud computing technology. The image generating device 10 includes a selection unit 11, a designation unit 12, an acquisition unit 13, a change unit 14, a display control unit 15, and an output unit 16.

画像生成装置10は、モデル選択モード(第1のモード)、モデル配置モード(第2のモード)、ポーズ変更モード(第3のモード)、エコーモード(第4のモード)、内視鏡モード(第5のモード)等の複数のモードを有する。選択部11は、ユーザがクライアント装置20を介して入力した指示に基づいてモードを選択する。 The image generating device 10 has multiple modes, such as a model selection mode (first mode), a model placement mode (second mode), a pose change mode (third mode), an echo mode (fourth mode), and an endoscope mode (fifth mode). The selection unit 11 selects a mode based on an instruction input by the user via the client device 20.

指定部12は、ユーザがクライアント装置20を介して入力した3Dモデルの指定を受け付ける。具体的には、指定部12は、選択されたモードに応じて、選択可能な3Dモデルのカテゴリをクライアント装置20に表示させる。ユーザは、表示されたカテゴリから所望のカテゴリを指定する。指定部12は、指定されたカテゴリを受け付け、指定されたカテゴリに含まれる3Dモデルのアイテムをクライアント装置20に表示させる。ユーザは、表示されたアイテムから画像を入手したい3Dモデルを指定する。言い換えると、ユーザは、表示されたアイテムから自分が思い描く状態の画像を作成するために必要な3Dモデルを指定する。そして、指定部12は、その指定を受け付ける。 The designation unit 12 accepts the designation of a 3D model input by the user via the client device 20. Specifically, the designation unit 12 causes the client device 20 to display selectable 3D model categories according to the selected mode. The user designates a desired category from the displayed categories. The designation unit 12 accepts the designated category and causes the client device 20 to display 3D model items included in the designated category. The user designates a 3D model from which an image is desired to be obtained from the displayed items. In other words, the user designates a 3D model required to create an image of the state the user envisions from the displayed items. The designation unit 12 then accepts the designation.

取得部13は、指定された少なくとも一つの3Dモデルを、複数の3Dモデル、即ち、3Dモデル群が格納されたデータベース30から取得する。 The acquisition unit 13 acquires at least one specified 3D model from a database 30 in which multiple 3D models, i.e., a group of 3D models, are stored.

ここで、データベース30について説明する。データベース30には、人体、人体の各部位(血管、筋肉、および骨等を含む)、人体の臓器、および人体に発症する炎症や腫瘍等の疾患を含む医学的モデル、動物の身体、その各部位(血管、筋肉、および骨等を含む)、動物の臓器、および動物の身体に発症する炎症や腫瘍等の疾患を含む獣医学的モデル、並びに医療機器および器具のモデルの3Dモデル群が格納されている。さらに、データベース30には、3Dモデルとイラストを組み合わせた特殊モデル、および人体または動物の身体等に動きをつけたアニメーションモデルも格納される。ここで、アニメーションモデルは、予め設定されたアニメーション機能を持った3Dモデルである。データベース30に格納される3Dモデルは、解剖学に基づいた適切な知識の下に作成された3Dモデルであって、生理学、組織学、発生学、およびその他医学を学ぶために必要な3Dモデル全般である。 Here, the database 30 will be described. The database 30 stores a group of 3D models, including medical models including human bodies, each part of the human body (including blood vessels, muscles, bones, etc.), human organs, and diseases such as inflammation and tumors that occur in the human body, veterinary models including animal bodies, each part of the human body (including blood vessels, muscles, bones, etc.), animal organs, and diseases such as inflammation and tumors that occur in the animal body, as well as models of medical equipment and instruments. In addition, the database 30 also stores special models that combine 3D models with illustrations, and animation models that add movement to the human body or animal body. Here, the animation models are 3D models with preset animation functions. The 3D models stored in the database 30 are 3D models created based on appropriate knowledge based on anatomy, and are general 3D models necessary for learning physiology, histology, embryology, and other medical sciences.

変更部14は、選択部11において選択されたモードに応じた、3Dモデルに対する状態の変更要求に基づいて、3Dモデルの状態を変更させる。即ち、ユーザがクライアント装置20を介して入力した3Dモデルの状態変更の要求に基づいて、3Dモデルの状態を変更させる。 The change unit 14 changes the state of the 3D model based on a request to change the state of the 3D model according to the mode selected by the selection unit 11. That is, the change unit 14 changes the state of the 3D model based on a request to change the state of the 3D model input by the user via the client device 20.

表示制御部15は、変更された状態の3Dモデルをクライアント装置20の表示画面に表示させる。 The display control unit 15 displays the 3D model in the changed state on the display screen of the client device 20.

出力部16は、クライアント装置20の表示画面に表示されている3Dモデルを含む画像を取得するための情報をクライアント装置20に出力する。ここで、画像を取得するための情報とは、例えば、画像をダウンロードするためのURLおよびコードである。なお、画像自体を、JPEG、GIF、TIFF、PNG、BMP、RAW等のダウンロード可能な形式で画像ファイルとして出力してもよい。 The output unit 16 outputs to the client device 20 information for acquiring an image including a 3D model displayed on the display screen of the client device 20. Here, the information for acquiring the image is, for example, a URL and a code for downloading the image. Note that the image itself may be output as an image file in a downloadable format such as JPEG, GIF, TIFF, PNG, BMP, or RAW.

次に、管理者装置40について説明する。管理者装置40は、画像生成システム1を管理する管理者によって利用されるコンピュータである。管理者装置40は、例えば、PC、タブレットPC、スマートフォン等である。管理者装置40は、例えば、後述するカスタムオーダーを受け付ける。なお、管理者装置40は、データベース30の3Dモデルの追加および変更等のデータベース30のメンテナンスおよび画像生成装置10のメンテナンスを行う機能を有していてもよい。 Next, the administrator device 40 will be described. The administrator device 40 is a computer used by an administrator who manages the image generation system 1. The administrator device 40 is, for example, a PC, a tablet PC, a smartphone, etc. The administrator device 40 accepts, for example, custom orders, which will be described later. The administrator device 40 may have a function of performing maintenance of the database 30, such as adding and changing 3D models in the database 30, and maintenance of the image generation device 10.

次に、図2を用いて、画像生成システム1のハードウェア構成について説明する。図2は、画像生成装置10のハードウェア構成を示すブロック図である。画像生成装置10は、記憶部61、RAM62、ROM63、CPU64、および通信部65を備える。 Next, the hardware configuration of the image generation system 1 will be described with reference to FIG. 2. FIG. 2 is a block diagram showing the hardware configuration of the image generation device 10. The image generation device 10 includes a storage unit 61, a RAM 62, a ROM 63, a CPU 64, and a communication unit 65.

記憶部61は、後述のCPU64によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。また、記憶部61は、処理に用いる各種データや、作成された予測モデル等を記憶しうる。 The storage unit 61 stores programs executed by the CPU 64 (described below) and data used by such programs. The storage unit 61 can also store various data used in processing, created prediction models, etc.

CPU64は、ROM63又は記憶部61に格納されたプログラムに基づいて動作し、画像生成装置10の各部の制御を行う。ROM63は、画像生成装置10の起動時にCPU64によって実行されるブートプログラムや、画像生成装置10のハードウェアに依存するプログラム等を格納する。CPU64は、例えば、RAM62上にロードされたプログラムを実行することにより、後述するフローを実現する。なお、CPU64が、これらのプログラムを他の装置から、例えば、ネットワークを介して取得して、実行してもよい。 The CPU 64 operates based on a program stored in the ROM 63 or the storage unit 61, and controls each unit of the image generating device 10. The ROM 63 stores a boot program executed by the CPU 64 when the image generating device 10 is started up, programs that depend on the hardware of the image generating device 10, and the like. The CPU 64 realizes a flow described below, for example, by executing a program loaded onto the RAM 62. Note that the CPU 64 may obtain these programs from another device, for example via a network, and execute them.

通信部65は、例えば、ネットワークを介して他の機器等の外部からデータまたは指示を受信してCPU64へ送り、CPU64が生成したデータや指示を他の機器へ送信しうる。なお、画像生成装置10は、入力装置および表示装置と接続されていてもよい。 The communication unit 65 can receive data or instructions from an external device, such as another device, via a network and send them to the CPU 64, and can transmit data or instructions generated by the CPU 64 to other devices. Note that the image generating device 10 can be connected to an input device and a display device.

クライアント装置20、データベース30および管理者装置40の夫々も図2と同様の構成を備えているが詳細な説明は省略する。なお、クライアント装置20および管理者装置40は、図2の構成に加えて、入力装置および表示装置と接続されている。入力装置は、例えば、ユーザからの操作入力を受け付けるタッチパネルやキーボード、マウス等である。表示装置は、例えば、液晶ディスプレイパネル、プラズマディスプレイパネル、有機ELディスプレイパネル等である。 The client device 20, database 30, and administrator device 40 each have a similar configuration to that shown in FIG. 2, but detailed description will be omitted. In addition to the configuration shown in FIG. 2, the client device 20 and administrator device 40 are connected to an input device and a display device. The input device is, for example, a touch panel, keyboard, mouse, etc. that accepts operational input from the user. The display device is, for example, a liquid crystal display panel, a plasma display panel, an organic EL display panel, etc.

<モデル選択モード>
モデル選択モードについて説明する。モデル選択モードは、データベース30に格納された3Dモデルを用いて、ユーザが思い描く画像を生成するモードである。図3は、モデル選択モードにおける画像生成処理を示すフロー図である。このフローチャートで示す各動作(ステップ)は、画像生成装置10のCPU64の制御によって実行されうる。
<Model selection mode>
The model selection mode will now be described. The model selection mode is a mode in which an image envisioned by a user is generated using a 3D model stored in the database 30. Fig. 3 is a flow diagram showing an image generation process in the model selection mode. Each operation (step) shown in this flow chart can be executed under the control of the CPU 64 of the image generation device 10.

S101では、ユーザがクライアント装置20を用いて、モデル選択モードを選択する指示を入力する。すると、選択部11は、モデル選択モードを選択し、モデル選択モードを起動させる。 In S101, the user uses the client device 20 to input an instruction to select the model selection mode. In response, the selection unit 11 selects the model selection mode and starts the model selection mode.

S102では、クライアント装置20にモデル選択モードで使用可能な3Dモデルのカテゴリが表示される。このカテゴリは、ユーザに応じてカスタマイズすることができる。具体的には、例えば、ユーザが医師である場合、ユーザの専門分野に応じたカテゴリが上位に表示されるようにカスタマイズすることが可能である。また、例えば、機械学習を用いて、使用履歴に基づいたカテゴリを表示させるようにしてもよい。ユーザは、表示されたカテゴリから、入手したい画像が属するカテゴリを選択して指定する。そして、指定部12は、その指定を受け付け、指定されたカテゴリに含まれる3Dモデルのアイテムをクライアント装置20に表示させる。 In S102, categories of 3D models available in the model selection mode are displayed on the client device 20. These categories can be customized according to the user. Specifically, for example, if the user is a doctor, customization is possible so that categories according to the user's specialty are displayed at the top. In addition, for example, machine learning may be used to display categories based on usage history. The user selects and specifies the category to which the image they wish to obtain belongs from the displayed categories. The specification unit 12 then accepts the specification and causes the client device 20 to display 3D model items included in the specified category.

S103では、ユーザに指定されたカテゴリに含まれる3Dモデルのアイテムが表示される。ユーザは、表示されたアイテムから自分が思い描く状態の画像を作成するために必要な3Dモデルを指定する。そして、指定部12は、その指定を受け付ける。なお、3Dモデルの指定方法は、これに限られず、ユーザが所望の3Dモデルを指定できる構成であれば良い。例えば、アイテム一覧から直接指定できるようにしても良いし、文字入力や音声入力により検索することで、アイテムを指定できるようにしてもよい。そして、取得部13は、指定部12において指定された3Dモデルをデータベース30から取得し、クライアント装置20に表示させる。 In S103, 3D model items included in the category specified by the user are displayed. The user selects a 3D model required to create an image of the state the user envisions from the displayed items. The designation unit 12 then accepts the designation. Note that the method of designating a 3D model is not limited to this, and any configuration that allows the user to designate a desired 3D model may be used. For example, the item may be designated directly from a list of items, or may be designated by searching by character input or voice input. The acquisition unit 13 then acquires the 3D model designated by the designation unit 12 from the database 30, and displays it on the client device 20.

S104では、指定部12は、アイテムの指定および取得が完了したか判定する。ユーザが思い描く状態の画像に必要な全てのアイテムの指定および取得が完了した場合に、アイテムの指定および取得が完了したと判定される。具体的には、例えば、ユーザによってアイテムの指定が完了したことが入力された場合、または、ユーザによって次の処理へ進む操作がされた場合に、指定部12はアイテムの指定および取得が完了したと判定する。ここで、完了したと判定された場合(Yes)は、処理をS105に進める。一方、完了したと判定されない場合(No)は、S103を繰り返す。 In S104, the designation unit 12 determines whether the designation and acquisition of items is complete. When the designation and acquisition of all items required for the image of the state envisioned by the user is complete, the designation and acquisition of items is determined to be complete. Specifically, for example, when the user inputs that the designation of items is complete, or when the user performs an operation to proceed to the next process, the designation unit 12 determines that the designation and acquisition of items is complete. If it is determined that the designation and acquisition is complete (Yes), the process proceeds to S105. On the other hand, if it is not determined that the designation and acquisition is complete (No), S103 is repeated.

S105では、変更部14は、ユーザがクライアント装置20を介して入力した3Dモデルの状態変更の要求に基づいて、3Dモデルの状態を変更させる。そして、表示制御部15は、変更された状態の3Dモデルをクライアント装置20の表示画面に表示させる。 In S105, the change unit 14 changes the state of the 3D model based on a request for changing the state of the 3D model input by the user via the client device 20. Then, the display control unit 15 displays the 3D model in the changed state on the display screen of the client device 20.

S106では、出力部16は、カスタムオーダーをするか否かを判定する。ここで、カスタムオーダーとは、クライアント装置20の表示画面された状態の3Dモデルに基づいて、イラストレーターによるイラスト作成をオーダーすることである。クライアント装置20において、カスタムオーダーの選択がされた場合に、カスタムオーダーをする(Yes)と判定され、処理をS107に進める。一方、クライアント装置20において、出力が選択された場合に、カスタムオーダーしない(No)と判定され、処理をS108に進める。 In S106, the output unit 16 determines whether or not to place a custom order. Here, a custom order means ordering an illustrator to create an illustration based on the 3D model displayed on the display screen of the client device 20. If a custom order is selected on the client device 20, it is determined that a custom order is to be placed (Yes), and the process proceeds to S107. On the other hand, if output is selected on the client device 20, it is determined that a custom order is not to be placed (No), and the process proceeds to S108.

S107では、クライアント装置20の表示画面に表示されている3Dモデルを含む画像、即ち、ユーザの変更要求に基づいて変更された状態の3Dモデルを含む画像を取得するための、例えばURLをクライアント装置20に出力する。 In S107, for example, a URL is output to the client device 20 to obtain an image including the 3D model displayed on the display screen of the client device 20, i.e., an image including the 3D model in a state modified based on the user's modification request.

一方、S108では、出力部16は、3Dモデル情報を管理者装置40に送信する。ここで、3Dモデル情報は、いずれの3Dモデルが選択されたか、およびその3Dモデルの座標情報等を含む、ユーザの変更要求に基づいて変更された状態の3Dモデルを含む画像を管理者装置40に表示させるための情報である。出力部16が、3Dモデル情報を管理者装置40に送信することにより、管理者装置40においても、ユーザが思い描く状態の画像を確認することが可能となり、イラストレーターが個別にイラストを作成する場合においても、イラストを作成するために必要であった打ち合わせ時間を大幅に短縮することができる。 Meanwhile, in S108, the output unit 16 transmits the 3D model information to the administrator device 40. Here, the 3D model information is information for displaying on the administrator device 40 an image including the 3D model in a state changed based on the user's change request, including which 3D model was selected and the coordinate information of the 3D model. By the output unit 16 transmitting the 3D model information to the administrator device 40, it becomes possible to confirm the image in the state envisioned by the user on the administrator device 40, and even when an illustrator creates an illustration individually, the consultation time required to create the illustration can be significantly shortened.

次に、モデル選択モードで生成される画像の具体的な例について、図4~8を用いて説明する。図4は、モデル選択モードで生成される画像の第1の例を説明する図である。本図では、S103において、人体の脚111の3Dモデルと、創外固定具112の3Dモデルが指定された例を示す。図4(A)は、人体の脚111の3Dモデルを示す図である。図4(B)は、創外固定具112の3Dモデルを示す図である。ユーザは、クライアント装置20を用いて、脚111の3Dモデルに、創外固定具112の3Dモデルを組み合わせ、自身が思い描く状態に変更する。図4(C)は、ユーザによって、変更された状態の3Dモデルを示す図である。ユーザはクライアント装置20を用いて、3Dモデルの組み合わせ、位置、姿勢、3Dモデルに対する視点、および色を変更することが可能である。即ち、変更部14は、ユーザからの変更要求に基づいて、3Dモデルの組み合わせ、位置、姿勢、3Dモデルに対する視点、および色を変更することが可能である。なお、ここで、3Dモデルに対する視点とは、3Dモデルをいずれの方向から見るかを意味する。このように、ユーザは、例えば、自由に3Dモデルを組み合わせて自身思い描く状態を示す画像を簡単に入手することができる。 Next, specific examples of images generated in the model selection mode will be described with reference to Figures 4 to 8. Figure 4 is a diagram for explaining a first example of an image generated in the model selection mode. This diagram shows an example in which a 3D model of a human leg 111 and a 3D model of an external fixation device 112 are specified in S103. Figure 4 (A) is a diagram showing a 3D model of a human leg 111. Figure 4 (B) is a diagram showing a 3D model of an external fixation device 112. The user uses the client device 20 to combine the 3D model of the leg 111 with the 3D model of the external fixation device 112 to change it to the state he or she envisions. Figure 4 (C) is a diagram showing a 3D model in a state changed by the user. The user can use the client device 20 to change the combination, position, posture, viewpoint for the 3D model, and color of the 3D model. That is, the change unit 14 can change the combination, position, posture, viewpoint for the 3D model, and color of the 3D model based on a change request from the user. Note that the viewpoint of a 3D model here refers to the direction from which the 3D model is viewed. In this way, users can, for example, freely combine 3D models to easily obtain an image that shows the state they envision.

図5は、モデル選択モードで生成される画像の第2の例を説明する図である。本図では、S103において、人体の断面を示す模型121の3Dモデルが指定された例を示す。なお、本図は、クライアント装置20に表示されるユーザインタフェース画面の一例を含む。ユーザはクライアント装置20を用いて、3Dモデルの位置、3Dモデル対する視点、並びに3Dモデルの色および質感を変更することが可能である。3Dモデルの色および質感の変更は、例えば、操作パネル124を操作することにより実行することができる。なお、ここで、色および質感の変更は、例えば、解剖学的構造に基づいて分割された部位毎に変更することが可能である。具体的には、例えば、第2頸椎のみの色を変更することができる。このように、ユーザは所望の部位のみを際立たせるために色を変更する等、自身思い描く状態を示す画像を簡単に入手することができる。また、3Dモデル対する視点は、例えば、視点変更部125を操作することにより実行することができる。また、画面に表示されている「Export」のアイコン122をクリックすることで、表示画面に表示されている3Dモデルを含む画像を取得するための、例えば、URLを取得することができる。一方、画面に表示されている「Custom Order」のアイコン123をクリックすることで、カスタムオーダーをすることができる。 FIG. 5 is a diagram illustrating a second example of an image generated in the model selection mode. In this diagram, an example is shown in which a 3D model of a model 121 showing a cross section of a human body is specified in S103. This diagram includes an example of a user interface screen displayed on the client device 20. The user can use the client device 20 to change the position of the 3D model, the viewpoint of the 3D model, and the color and texture of the 3D model. The color and texture of the 3D model can be changed, for example, by operating the operation panel 124. Note that the color and texture can be changed for each part divided based on the anatomical structure. Specifically, for example, the color of only the second cervical vertebra can be changed. In this way, the user can easily obtain an image showing the state he or she envisions, such as changing the color to highlight only the desired part. In addition, the viewpoint of the 3D model can be executed, for example, by operating the viewpoint change unit 125. In addition, by clicking the "Export" icon 122 displayed on the screen, it is possible to obtain, for example, a URL for obtaining an image including the 3D model displayed on the display screen. On the other hand, you can place a custom order by clicking on the "Custom Order" icon 123 displayed on the screen.

図6は、モデル選択モードで生成される画像の第3の例を説明する図である。本図では、S103において、内部構造が露出された状態の脚131の3Dモデルが指定された例を示す。ユーザはクライアント装置20を用いて、3Dモデルの位置、姿勢、3Dモデル対する視点、色、及び各部位の表示/非表示を変更することが可能である。なお、ここで、各部位の表示/非表示の変更は、解剖学的構造に基づいて分割された部位毎に変更することが可能である。具体的には、本図に示すように、例えば、下腿三頭筋132、前脛骨筋133、長腓骨筋136および長趾伸筋137を非表示とし、脛骨134と腓骨135を表示させるように変更することができる。このように、所望の部位の表示/非表示を簡単に切り替えることができ、ユーザは自身思い描く状態を示す画像を簡単に入手することができる。 Figure 6 is a diagram illustrating a third example of an image generated in the model selection mode. This diagram shows an example in which a 3D model of a leg 131 with its internal structure exposed is specified in S103. The user can use the client device 20 to change the position, posture, viewpoint with respect to the 3D model, color, and display/hide of each part of the 3D model. Note that the display/hide of each part can be changed for each part divided based on the anatomical structure. Specifically, as shown in this diagram, for example, the triceps surae 132, tibialis anterior 133, peroneus longus 136, and extensor digitorum longus 137 can be hidden, and the tibia 134 and fibula 135 can be displayed. In this way, the display/hide of a desired part can be easily switched, and the user can easily obtain an image showing the state he or she envisions.

図7は、モデル選択モードで生成される画像の第4の例を説明する図である。本図では、S103において、浮腫を含む人体の脚141の3Dモデルが指定された例を示す。ユーザはクライアント装置20の表示画面に表示されたスライダー142を用いて、脚141の浮腫の発症状態を変更することができる。本図の向かって左側に表示された脚141は、浮腫が比較的軽症(無症状)の状態を示している。一方、本図の向かって右側に表示された脚141は、浮腫が比較的重症の状態を示している。このように、ユーザは自身が思い描く症状の状態を示す画像を簡単に入手することができる。なお、発症状態を変更する方法は、これに限られず、例えば、数値を入力する等他の方法によって変更が可能であってもよい。 Figure 7 is a diagram illustrating a fourth example of an image generated in the model selection mode. This diagram shows an example in which a 3D model of a human leg 141 including edema is specified in S103. The user can change the edema state of the leg 141 using a slider 142 displayed on the display screen of the client device 20. The leg 141 displayed on the left side of this diagram shows a relatively mild (asymptomatic) state of edema. On the other hand, the leg 141 displayed on the right side of this diagram shows a relatively severe state of edema. In this way, the user can easily obtain an image showing the state of symptoms that he or she imagines. Note that the method of changing the onset state is not limited to this, and it may be possible to change it by other methods, such as inputting a numerical value.

図8は、モデル選択モードで生成される画像の第5の例を説明する図である。本図では、S103において、医療器具の一種である開創器151の3Dモデルが指定された例を示す。本図は、クライアント装置20に表示されるユーザインタフェース画面の一例を含む。ユーザはクライアント装置20の表示画面に表示された開創器151を、例えば、ドラッグすることで、開創器151の開き角度、即ち、開創器151の動作状態を変更することができる。本図において、開創器151の開き角度が大きくなるように変更し、開創器151が開いた状態を破線で示している。なお、3Dモデルの動作状態を変更する方法は、これに限られず、例えば数値を入力することで変更が可能であってもよい。このように、ユーザは3Dモデルの動作状態を自由に変更することで自身思い描く状態を示す画像を簡単に入手することができる。 Figure 8 is a diagram illustrating a fifth example of an image generated in the model selection mode. This figure shows an example in which a 3D model of a retractor 151, which is a type of medical instrument, is specified in S103. This figure includes an example of a user interface screen displayed on the client device 20. The user can change the opening angle of the retractor 151, i.e., the operating state of the retractor 151, by, for example, dragging the retractor 151 displayed on the display screen of the client device 20. In this figure, the opening angle of the retractor 151 is changed to be larger, and the state in which the retractor 151 is open is shown by a broken line. Note that the method of changing the operating state of the 3D model is not limited to this, and it may be possible to change it by, for example, inputting a numerical value. In this way, the user can easily obtain an image showing the state he or she envisions by freely changing the operating state of the 3D model.

なお、画像生成装置10によって生成される画像は、静止画像だけではなく、アニメーション画像であってもよい。具体的には、S103において、アニメーション機能を持つアニメーションモデルが指定された場合、該アニメーションを含むアニメーション画像が生成される。 The image generated by the image generating device 10 may be not only a still image but also an animated image. Specifically, when an animation model with an animation function is specified in S103, an animation image including the animation is generated.

また、ユーザが思い描く画像を説明する文書を入力し、機械学習を用いてその画像を自動で生成するようにしてもよい。 Alternatively, a user can input text describing the image they have in mind, and the image can be automatically generated using machine learning.

以上述べたように、モデル選択モードによれば、ユーザは自身思い描く状態を示す画像を簡単に入手することができる。 As described above, the model selection mode allows users to easily obtain images that represent the state they envision.

<モデル配置モード>
モデル配置モードについて説明する。モデル配置モードは、仮想手術室等の仮想空間内に3Dモデルを配置して、ユーザが思い描く画像を生成するモードである。図9は、モデル配置モードにおける画像生成処理を示すフロー図である。このフローチャートで示す各動作(ステップ)は、画像生成装置10のCPU64の制御によって実行されうる。なお、本図において図3と同様のステップについては同じ番号を付して説明を省略し、差異についてのみ詳細に説明する。
<Model placement mode>
The model placement mode will now be described. The model placement mode is a mode in which a 3D model is placed in a virtual space such as a virtual operating room, and an image envisioned by the user is generated. Fig. 9 is a flow diagram showing image generation processing in the model placement mode. Each operation (step) shown in this flow chart can be executed under the control of the CPU 64 of the image generating device 10. Note that in this figure, steps similar to those in Fig. 3 are given the same numbers and explanations are omitted, and only differences will be explained in detail.

S201では、ユーザがクライアント装置20を用いて、モデル配置モードを選択する指示を入力する。すると、選択部11は、モデル配置モードを選択し、モデル配置モードを起動させる。 In S201, the user inputs an instruction to select the model placement mode using the client device 20. The selection unit 11 then selects the model placement mode and starts the model placement mode.

S102の後、S202では、ユーザに指定されたカテゴリに含まれる3Dモデルのアイテムがクライアント装置20の表示画面に表示される。ユーザは、表示されたアイテムから自分が思い描く状態の画像を作成するために必要な3Dモデルを指定する。なお、モデル配置モードでは、仮想空間内に3Dモデルを配置するため、S202において少なくとも一つの仮想空間が指定される。また、モデル配置モードにおいて、後述する視線選択を行う場合には、S202において少なくとも一つの人体の3Dモデルが指定される。そして、指定部12は、その指定を受け付ける。そして、取得部13は、指定部12において指定された3Dモデルをデータベース30から取得し、クライアント装置20に表示させる。 After S102, in S202, 3D model items included in the category specified by the user are displayed on the display screen of the client device 20. The user specifies the 3D model required to create an image of the state he or she envisions from the displayed items. In the model placement mode, at least one virtual space is specified in S202 to place a 3D model in a virtual space. In the model placement mode, when performing line-of-sight selection, which will be described later, at least one 3D model of a human body is specified in S202. The specification unit 12 then accepts the specification. The acquisition unit 13 then acquires the 3D model specified by the specification unit 12 from the database 30, and displays it on the client device 20.

S203では、変更部14は、ユーザがクライアント装置20を介して入力した3Dモデルの状態変更の要求に基づいて、3Dモデルの状態を変更させる。具体的には、モデル配置モードでは、変更部14は指定された3Dモデルを指定された仮想空間内に配置する。そして、表示制御部15は、仮想空間内に配置された状態の3Dモデルをクライアント装置20の表示画面に表示させる。 In S203, the modification unit 14 modifies the state of the 3D model based on a request for changing the state of the 3D model input by the user via the client device 20. Specifically, in the model placement mode, the modification unit 14 places the specified 3D model in the specified virtual space. Then, the display control unit 15 displays the 3D model placed in the virtual space on the display screen of the client device 20.

S204では、変更部14は、アイテムの配置が完了したか判定する。ここでは、ユーザが思い描く状態の画像に必要な全てのアイテムの仮想空間内への配置が完了した場合に、アイテムの配置が完了したと判定される。具体的には、例えば、ユーザによってアイテムの配置が完了したことが入力された場合、または、ユーザによって次の処理へ進む操作がされた場合に、変更部14はアイテムの配置が完了したと判定する。ここで、完了したと判定された場合(Yes)は、処理をS205に進める。一方、完了したと判定されない場合(No)は、S202~203を繰り返す。 In S204, the modification unit 14 determines whether item placement is complete. Here, it is determined that item placement is complete when all items required for the image of the state envisioned by the user have been placed in the virtual space. Specifically, for example, the modification unit 14 determines that item placement is complete when the user inputs that item placement is complete, or when the user performs an operation to proceed to the next process. Here, if it is determined that it is complete (Yes), the process proceeds to S205. On the other hand, if it is not determined that it is complete (No), S202 to S203 are repeated.

S205では、変更部14は、視線選択をするか否かを判定する。ここで、視線選択とは、仮想空間内に配置された少なくとも一つの人体の3Dモデルの視点から見た仮想空間を表示画面に表示させるものである。例えば、クライアント装置20において、仮想空間内に配置された人体の3Dモデルのうちのいずれか一つが選択された場合に、変更部14は視線選択をする(Yes)と判定し、処理をS206に進める。一方、視線選択をしない(No)と判定された場合は、処理をS106に進める。 In S205, the change unit 14 determines whether or not to perform gaze selection. Here, gaze selection refers to displaying the virtual space viewed from the viewpoint of at least one 3D model of a human body placed in the virtual space on the display screen. For example, when one of the 3D models of a human body placed in the virtual space is selected on the client device 20, the change unit 14 determines that gaze selection will be performed (Yes) and proceeds to processing at S206. On the other hand, when it is determined that gaze selection will not be performed (No), the process proceeds to S106.

S206では、変更部14は選択された人体の3Dモデルの視線へと変更し、表示制御部15は、選択された人体の3Dモデルの視点から見た仮想空間を表示画面に表示させる。 In S206, the change unit 14 changes the line of sight to that of the selected 3D model of the human body, and the display control unit 15 displays the virtual space seen from the viewpoint of the selected 3D model of the human body on the display screen.

次に、モデル配置モードで生成される画像の具体的な例について、図10および11を用いて説明する。図10は、モデル配置モードで生成される画像の例を説明する図である。本図では、S202において、仮想空間として仮想手術室211が指定され、手術台212の3Dモデル、医師213の3Dモデル、および患者214の3Dモデルが指定された例を示す。ユーザは、クライアント装置20を用いて、仮想手術室211内に、指定した手術台212、医師213、および患者214の3Dモデルを配置し、自身が思い描く状態へと変更する。これにより、ユーザは自身思い描く空間を示す画像を簡単に入手することができる。 Next, specific examples of images generated in the model placement mode will be described with reference to Figures 10 and 11. Figure 10 is a diagram for explaining an example of an image generated in the model placement mode. This figure shows an example in which a virtual operating room 211 is specified as the virtual space, and a 3D model of an operating table 212, a 3D model of a doctor 213, and a 3D model of a patient 214 are specified in S202. The user uses the client device 20 to place the specified 3D models of the operating table 212, doctor 213, and patient 214 in the virtual operating room 211, changing it to the state the user envisions. This allows the user to easily obtain an image showing the space the user envisions.

図11は、視線選択がされた場合に生成される画像の例を説明する図である。具体的には、図11は、図10において、医師213の視線に変更することが選択された場合に生成される画像の一例である。ここでは、医師213の視線が選択されているため、表示画面上に医師213は表示されておらず、手術台212および患者214の3Dモデルのみが表示されている。なお、ここで、選択された視線の方向を自由に変更できるようにしてもよい。このような画像が生成できることにより、医師がどのような目線で施術を行っているのかを、第三者(例えば、研修医)に容易に示すことが可能となる。また、患者214の視線を選択した場合には、患者がどのような視界で施術を受けているのかを理解することが可能となる。 Figure 11 is a diagram illustrating an example of an image generated when a line of sight is selected. Specifically, Figure 11 is an example of an image generated when changing to the line of sight of doctor 213 is selected in Figure 10. Here, because the line of sight of doctor 213 is selected, doctor 213 is not displayed on the display screen, and only the 3D models of operating table 212 and patient 214 are displayed. Note that the direction of the selected line of sight may be freely changed. By being able to generate such an image, it is possible to easily show a third party (e.g., a trainee) the line of sight from which the doctor is performing the treatment. Also, when the line of sight of patient 214 is selected, it is possible to understand the field of view from which the patient is receiving the treatment.

<ポーズ変更モード>
ポーズ変更モードについて説明する。ポーズ変更モードは、人体の3Dモデルの姿勢を、人体の構造上の可動範囲内で変更し、ユーザの思い描く姿勢をとった人体の画像を生成するモードである。具体的には、例えば、複数のアニメーションモデルを組み合わせることで、モデル選択モードと比較して、より複雑なポージングが可能となる。図12は、ポーズ変更モードにおける画像生成処理を示すフロー図である。このフローチャートで示す各動作(ステップ)は、画像生成装置10のCPU64の制御によって実行されうる。なお、本図において図3と同様のステップについては同じ番号を付して説明を省略し、差異についてのみ詳細に説明する。
<Pose change mode>
The pose change mode will be described. The pose change mode is a mode in which the posture of a 3D model of a human body is changed within the structural movable range of the human body, and an image of the human body in a posture envisioned by the user is generated. Specifically, for example, by combining multiple animation models, more complex poses are possible compared to the model selection mode. FIG. 12 is a flow diagram showing an image generation process in the pose change mode. Each operation (step) shown in this flow chart can be executed under the control of the CPU 64 of the image generation device 10. Note that in this figure, steps similar to those in FIG. 3 are assigned the same numbers and explanations are omitted, and only differences are explained in detail.

S301では、ユーザがクライアント装置20を用いて、ポーズ変更モードを選択する指示を入力する。すると、選択部11は、ポーズ変更モードを選択し、ポーズ変更モードを起動させる。 In S301, the user uses the client device 20 to input an instruction to select the pose change mode. In response, the selection unit 11 selects the pose change mode and activates the pose change mode.

S102の後、S302では、ユーザに指定されたカテゴリに含まれる3Dモデルのアイテムが表示される。ユーザは、表示されたアイテムから自分が思い描く状態の画像を作成するために必要な3Dモデルを指定する。なお、ポーズ変更モードでは、人体の3Dモデルの姿勢を、人体の構造上の可動範囲内で自由に変更させた画像を生成するため、少なくとも一つの人体の3Dモデルが指定される。そして、指定部12は、その指定を受け付ける。取得部13は、指定部12において指定された3Dモデルをデータベース30から取得し、クライアント装置20に表示させる。 After S102, in S302, 3D model items included in the category specified by the user are displayed. The user selects the 3D model required to create an image of the state he or she envisions from the displayed items. In the pose change mode, at least one 3D model of a human body is specified in order to generate an image in which the posture of the 3D model of the human body is freely changed within the structural movable range of the human body. The specification unit 12 then accepts the specification. The acquisition unit 13 acquires the 3D model specified by the specification unit 12 from the database 30, and displays it on the client device 20.

S104の後、S303では、変更部14は、ユーザがクライアント装置20を介して入力した3Dモデルの状態変更の要求に基づいて、3Dモデルの状態を変更させる。ここでは、人体の構造上の可動範囲内で、人体の3Dモデルの姿勢を自由に変更することが可能である。そして、表示制御部15は、変更された状態の3Dモデルをクライアント装置20の表示画面に表示させる。 After S104, in S303, the modification unit 14 modifies the state of the 3D model based on a request for modifying the state of the 3D model input by the user via the client device 20. Here, it is possible to freely modify the posture of the 3D model of the human body within the structural movable range of the human body. Then, the display control unit 15 displays the modified 3D model on the display screen of the client device 20.

次に、ポーズ変更モードで生成される画像の具体的な例について、図13を用いて説明する。図13は、ポーズ変更モードで生成される画像の例を説明する図である。ポーズ変更モードでは、少なくとも一つの人体311の3Dモデルが指定される。そして、ユーザは、クライアント装置20を用いて3Dモデル対する視点、および、人体の構造上の可動範囲内で、人体の3Dモデルの姿勢を変更することが可能である。なお、人体ではなく、動物の身体の3Dモデルが指定されてもよい。 Next, a specific example of an image generated in the pose change mode will be described with reference to FIG. 13. FIG. 13 is a diagram illustrating an example of an image generated in the pose change mode. In the pose change mode, at least one 3D model of a human body 311 is specified. Then, using the client device 20, the user can change the viewpoint relative to the 3D model and the posture of the 3D human body model within the structural movable range of the human body. Note that a 3D model of an animal's body may be specified instead of a human body.

以上述べたように、ポーズ変更モードによれば、ユーザは自身が思い描く姿勢をとった人体の画像を簡単に入手することができる。 As described above, the pose change mode allows users to easily obtain images of the human body in the pose they envision.

<エコーモード>
エコーモードについて説明する。エコーモードは、操作画面上で、仮想超音波プローブ(以下、単に仮想プローブという)の位置を変更することにより画像を生成するモードである。図14は、エコーモードにおける画像生成処理を示すフロー図である。このフローチャートで示す各動作(ステップ)は、画像生成装置10のCPU64の制御によって実行されうる。なお、本図において図3と同様のステップについては同じ番号を付して説明を省略し、差異についてのみ詳細に説明する。
<Echo mode>
The echo mode will be described. The echo mode is a mode in which an image is generated by changing the position of a virtual ultrasound probe (hereinafter, simply referred to as a virtual probe) on an operation screen. Fig. 14 is a flow diagram showing an image generation process in the echo mode. Each operation (step) shown in this flow chart can be executed under the control of the CPU 64 of the image generating device 10. In this figure, steps similar to those in Fig. 3 are given the same numbers and their explanations are omitted, and only differences will be described in detail.

S401では、ユーザがクライアント装置20を用いて、エコーモードを選択する指示を入力する。すると、選択部11は、エコーモードを選択し、エコーモードを起動させる。 In S401, the user inputs an instruction to select echo mode using the client device 20. In response, the selection unit 11 selects echo mode and activates the echo mode.

S102の後、S402では、ユーザに指定されたカテゴリに含まれる3Dモデルのアイテムが表示される。ユーザは、表示されたアイテムから自分が思い描く状態の画像を作成するために必要な3Dモデルを指定する。なお、エコーモードでは、仮想プローブ位置を変更することにより仮想超音波画像を生成するため、少なくとも人体の一部を含む3Dモデルが指定される。また、一般的に超音波プローブの種類によって、撮像範囲や見え方等が異なるため、ここで超音波プローブの種類または機種を指定してもよい。そして、指定部12は、その指定を受け付ける。そして、取得部13は、指定部12において指定された3Dモデルをデータベース30から取得し、クライアント装置20に表示させる。 After S102, in S402, 3D model items included in the category specified by the user are displayed. The user selects a 3D model required to create an image of the state he or she envisions from the displayed items. In echo mode, a 3D model including at least a part of the human body is specified in order to generate a virtual ultrasound image by changing the virtual probe position. In addition, since the imaging range and appearance generally differ depending on the type of ultrasound probe, the type or model of ultrasound probe may be specified here. The specification unit 12 then accepts the specification. The acquisition unit 13 then acquires the 3D model specified by the specification unit 12 from the database 30 and displays it on the client device 20.

S104の後、S403では、変更部14は、ユーザがクライアント装置20を介して入力した3Dモデルの状態変更の要求に基づいて、3Dモデルの状態を変更させ、画像を生成する。具体的には、エコーモードでは、仮想プローブ位置、即ち、仮想プローブを当てる位置を変更することにより、その位置にプローブを当接または接近させた場合に撮像されるであろう画像を、変更部14が仮想超音波画像として生成する。そして、表示制御部15は、生成された仮想超音波画像、即ち、仮想プローブの動きに応じた、仮想超音波画像をクライアント装置20の表示画面に表示させる。 After S104, in S403, the modification unit 14 modifies the state of the 3D model and generates an image based on a request to change the state of the 3D model input by the user via the client device 20. Specifically, in echo mode, the modification unit 14 generates a virtual ultrasound image, which is an image that would be captured if the probe were to be placed in contact with or close to that position, by changing the virtual probe position,. The display control unit 15 then displays the generated virtual ultrasound image, i.e., a virtual ultrasound image corresponding to the movement of the virtual probe, on the display screen of the client device 20.

次に、エコーモードで生成される画像の具体的な例について、図15を用いて説明する。図15は、エコーモードで生成される画像の例を説明する図である。図15(A)は、仮想プローブ位置を説明する図である。エコーモードでは、少なくとも人体の一部(ここでは、人体の手411)の3Dモデルが指定される。なお、本図では簡易化のために、人体の手411の筋肉や皮膚の表示を省略し、骨のみを表示させている。ユーザはクライアント装置20を用いて、人体の手411上の仮想プローブ位置412を所望の位置へ変更する。すると、仮想プローブ位置412において、撮像されるであろう画像が、仮想超音波画像として、生成される。また、このとき、仮想プローブ位置412における仮想撮像範囲413を画面上に表示させることも可能である。図15(B)は、仮想プローブの仮想撮像範囲413を示す図である。 Next, a specific example of an image generated in echo mode will be described with reference to FIG. 15. FIG. 15 is a diagram for explaining an example of an image generated in echo mode. FIG. 15(A) is a diagram for explaining a virtual probe position. In echo mode, a 3D model of at least a part of a human body (here, a human hand 411) is specified. In this diagram, for simplification, the display of the muscles and skin of the human hand 411 is omitted, and only the bones are displayed. The user uses the client device 20 to change the virtual probe position 412 on the human hand 411 to a desired position. Then, an image that will be captured at the virtual probe position 412 is generated as a virtual ultrasound image. At this time, it is also possible to display a virtual imaging range 413 at the virtual probe position 412 on the screen. FIG. 15(B) is a diagram showing the virtual imaging range 413 of the virtual probe.

なお、仮想プローブ位置412の変更等の仮想プローブの動作に合わせたアニメーション画像を仮想超音波画像として生成してもよい。 In addition, an animation image that matches the operation of the virtual probe, such as changing the virtual probe position 412, may be generated as a virtual ultrasound image.

以上述べたように、エコーモードによれば、仮想超音波プローブを用いて、自身思い描く位置に超音波プローブを当てた場合に撮像されるであろう超音波画像を簡単に入手することができる。 As described above, echo mode allows you to use a virtual ultrasound probe to easily obtain ultrasound images that would be captured if you placed the ultrasound probe at a position you envision.

<内視鏡モード>
内視鏡モードについて説明する。内視鏡モードは、操作画面上で、仮想内視鏡を操作することにより画像を生成するモードである。内視鏡モードでは、人体の少なくとも一部の3Dモデルに仮想内視鏡を挿入するように、3Dモデルの状態を変更可能である。図16は、内視鏡モードにおける画像生成処理を示すフロー図である。このフローチャートで示す各動作(ステップ)は、画像生成装置10のCPU64の制御によって実行されうる。なお、本図において図3と同様のステップについては同じ番号を付して説明を省略し、差異についてのみ詳細に説明する。
<Endoscope mode>
The endoscope mode will be described. The endoscope mode is a mode in which an image is generated by operating a virtual endoscope on an operation screen. In the endoscope mode, the state of the 3D model can be changed so that the virtual endoscope is inserted into at least a part of the 3D model of the human body. FIG. 16 is a flow diagram showing an image generation process in the endoscope mode. Each operation (step) shown in this flow chart can be executed under the control of the CPU 64 of the image generating device 10. In this figure, the same steps as those in FIG. 3 are assigned the same numbers and their explanations are omitted, and only the differences will be described in detail.

S501では、ユーザがクライアント装置20を用いて、内視鏡モードを選択する指示を入力する。すると、選択部11は、内視鏡モードを選択し、内視鏡モードを起動させる。 In S501, the user inputs an instruction to select the endoscope mode using the client device 20. The selection unit 11 then selects the endoscope mode and starts the endoscope mode.

S102の後、S502では、ユーザに指定されたカテゴリに含まれる3Dモデルのアイテムが表示される。ユーザは、表示されたアイテムから自分が思い描く状態の画像を作成するために必要な3Dモデルを指定する。なお、内視鏡モードでは、クライアント装置20を介して仮想内視鏡を操作することにより仮想内視鏡画像を生成するため、少なくとも人体の一部を含む3Dモデルが指定される。また、一般的に内視鏡の種類によって、撮像範囲、撮像対象となる人体の部位、および見え方等が異なるため、ここで内視鏡の種類や機種を指定してもよい。そして、指定部12は、その指定を受け付ける。そして、取得部13は、指定部12において指定された3Dモデルをデータベース30から取得し、クライアント装置20に表示させる。 After S102, in S502, 3D model items included in the category specified by the user are displayed. The user selects a 3D model required to create an image of the state he or she envisions from the displayed items. In the endoscope mode, a 3D model including at least a part of the human body is selected in order to generate a virtual endoscope image by operating the virtual endoscope via the client device 20. In addition, since the imaging range, the part of the human body to be imaged, and the appearance generally differ depending on the type of endoscope, the type and model of endoscope may be selected here. The designation unit 12 then accepts the designation. The acquisition unit 13 then acquires the 3D model specified by the designation unit 12 from the database 30 and displays it on the client device 20.

S104の後、変更部14は、ユーザがクライアント装置20を介して入力した3Dモデルの状態変更の要求に基づいて、3Dモデルの状態を変更させ、画像を生成する。内視鏡モードでは、まず、S503において、変更部14は仮想内視鏡の挿入位置を決定する。具体的には、ユーザがクライアント装置20を介して、人体の3Dモデル上において、仮想内視鏡を挿入する位置を選択する。変更部14は、選択された位置を仮想内視鏡の挿入位置とする。 After S104, the modification unit 14 modifies the state of the 3D model and generates an image based on a request to change the state of the 3D model input by the user via the client device 20. In the endoscope mode, first, in S503, the modification unit 14 determines the insertion position of the virtual endoscope. Specifically, the user selects the position on the 3D model of the human body where the virtual endoscope is to be inserted via the client device 20. The modification unit 14 sets the selected position as the insertion position of the virtual endoscope.

S504では、変更部14は仮想内視鏡の位置を変更する。具体的には、人体の3Dモデル内に挿入された仮想内視鏡の位置を、ユーザがクライアント装置20を介して変更する操作を行う。変更部14は、該操作に応じて仮想内視鏡の位置を変更し、その位置において内視鏡が撮像するであろう画像を仮想内視鏡画像として生成する。そして、表示制御部15は、生成された仮想内視鏡画像をクライアント装置20の表示画面に表示させる。 In S504, the change unit 14 changes the position of the virtual endoscope. Specifically, the user performs an operation to change the position of the virtual endoscope inserted in the 3D model of the human body via the client device 20. The change unit 14 changes the position of the virtual endoscope in response to the operation, and generates an image that the endoscope would capture at that position as a virtual endoscopic image. The display control unit 15 then displays the generated virtual endoscopic image on the display screen of the client device 20.

次に、内視鏡モードで生成される画像の具体的な例について、図17を用いて説明する。図17は、内視鏡モードで生成される画像の例を説明する図である。内視鏡モードでは、少なくとも人体の一部(ここでは、人体511)の3Dモデルが指定される。そして、ユーザはクライアント装置20を用いて、仮想内視鏡512の挿入位置515を選択する。そして、ユーザは、スライダー514を用いて仮想内視鏡512の位置を変更、即ち、移動させる。すると、変更された位置において、仮想内視鏡512によって撮像されるであろう画像が、仮想内視鏡画像513として生成される。 Next, a specific example of an image generated in the endoscope mode will be described with reference to FIG. 17. FIG. 17 is a diagram illustrating an example of an image generated in the endoscope mode. In the endoscope mode, a 3D model of at least a part of a human body (here, human body 511) is specified. Then, the user uses the client device 20 to select an insertion position 515 of the virtual endoscope 512. Then, the user uses the slider 514 to change, i.e., move, the position of the virtual endoscope 512. Then, an image that would be captured by the virtual endoscope 512 at the changed position is generated as a virtual endoscopic image 513.

なお、仮想内視鏡512の位置の変更等の仮想内視鏡512の動作に合わせたアニメーション画像を仮想内視鏡画像として生成してもよい。 In addition, an animation image that matches the operation of the virtual endoscope 512, such as changing the position of the virtual endoscope 512, may be generated as a virtual endoscope image.

以上述べたように、内視鏡モードによれば、仮想内視鏡を用いて、自身思い描く位置に内視鏡を挿入した場合に撮像されるであろう内視鏡画像を簡単に入手することができる。
<その他の実施形態>
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、上記実施形態は、本発明を説明するための例示であり、本発明をこれらの実施形態にのみ限定する趣旨ではない。本発明は、その要旨の範囲内で種々の変形および変更が可能である。
As described above, according to the endoscope mode, it is possible to easily obtain, using a virtual endoscope, an endoscopic image that would be captured if the endoscope were inserted into a position that the user imagines.
<Other embodiments>
Although the embodiments of the present application have been described in detail above with reference to several drawings, the above-mentioned embodiments are merely examples for explaining the present invention, and the present invention is not limited to these embodiments. Various modifications and changes are possible within the scope of the present invention.

画像生成装置10における処理をコンピュータによって実現する場合、これらの装置の各部が有すべき機能の処理内容はプログラムに基づいて実行される。上述の処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。また、各部の処理は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよい。つまり、画像生成装置10の機能を実行させるためのプログラムをクライアント装置20にインストールすることで、クライアント装置20が画像生成装置10の機能を実行するようにしてもよい。 When the processing in the image generating device 10 is realized by a computer, the processing contents of the functions that each part of these devices should have are executed based on a program. The program describing the above-mentioned processing contents can be recorded on a computer-readable recording medium. The computer-readable recording medium may be any type, such as a magnetic recording device, an optical disk, a magneto-optical recording medium, or a semiconductor memory. The processing of each part may also be configured by executing a predetermined program on a computer. In other words, the client device 20 may execute the functions of the image generating device 10 by installing a program for executing the functions of the image generating device 10 in the client device 20.

1 画像生成システム
10 画像生成装置
11 選択部
12 指定部
13 取得部
14 変更部
15 表示制御部
16 出力部
20 クライアント装置
30 データベース
40 管理者装置
50 ネットワーク
Reference Signs List 1 Image generation system 10 Image generation device 11 Selection unit 12 Designation unit 13 Acquisition unit 14 Change unit 15 Display control unit 16 Output unit 20 Client device 30 Database 40 Administrator device 50 Network

Claims (11)

3Dモデルを用いた医療用の画像を生成する画像生成装置であって、
ユーザからの指示に基づいてモードを選択する選択部と、
前記ユーザからの前記3Dモデルの指定を受け付ける指定部と、
指定された少なくとも一つの前記3Dモデルを、3Dモデル群が格納されたデータベースから取得する取得部と、
選択された前記モードに応じた、前記3Dモデルに対する状態の変更要求に基づいて、前記3Dモデルの状態を変更させる変更部と、
変更された状態の前記3Dモデルを含む画像を表示画面に表示させる表示制御部と、を有することを特徴とする画像生成装置。
An image generating device that generates a medical image using a 3D model,
A selection unit that selects a mode based on an instruction from a user;
A designation unit that accepts designation of the 3D model from the user;
an acquisition unit that acquires at least one of the designated 3D models from a database in which a group of 3D models is stored;
a change unit that changes a state of the 3D model based on a change request for the state of the 3D model according to the selected mode;
and a display control unit that displays an image including the 3D model in a changed state on a display screen.
前記選択部において、第1のモードが選択された場合、
前記変更部は、前記3Dモデルの解剖学的構造に基づいて分割された部位毎の色、質感、および表示/非表示、前記3Dモデルの姿勢、前記3Dモデルに対する視点、前記3Dモデルの組み合わせ、前記3Dモデルの動作状態、並びに症状の発症状態の少なくとも一つを変更可能であることを特徴とする請求項1に記載の画像生成装置。
When the first mode is selected in the selection unit,
The image generating device according to claim 1, characterized in that the modification unit is capable of modifying at least one of the color, texture, and display/non-display of each part divided based on the anatomical structure of the 3D model, the posture of the 3D model, the viewpoint relative to the 3D model, the combination of the 3D models, the motion state of the 3D model, and the onset state of a symptom.
前記選択部において、第2のモードが選択された場合、
指定された少なくとも一つの前記3Dモデルは、人体の3Dモデルを含み、
前記変更部は、前記3Dモデルを仮想空間内に配置可能であって、前記仮想空間内に配置された前記人体の3Dモデルが有する視点から見た前記仮想空間へ前記3Dモデルの状態を変更可能であり、
前記表示制御部は、前記視点から見た前記仮想空間の画像を前記表示画面に表示させることを特徴とする請求項1に記載の画像生成装置。
When the second mode is selected in the selection unit,
the at least one designated 3D model includes a 3D model of a human body;
the change unit is capable of placing the 3D model in a virtual space and changing a state of the 3D model to the virtual space as seen from a viewpoint of the 3D model of the human body placed in the virtual space;
The image generating device according to claim 1 , wherein the display control unit causes an image of the virtual space seen from the viewpoint to be displayed on the display screen.
前記選択部において、第3のモードが選択された場合、
指定された少なくとも一つの前記3Dモデルは、人体の少なくとも一部の3Dモデルを含み、
前記変更部は、人体の構造上の可動範囲内で、前記人体の少なくとも一部の3Dモデルの姿勢を変更可能であることを特徴とする請求項1に記載の画像生成装置。
When the third mode is selected in the selection unit,
the at least one designated 3D model includes a 3D model of at least a portion of a human body;
The image generating device according to claim 1 , wherein the modification unit is capable of modifying a posture of the 3D model of at least a part of the human body within a structural movable range of the human body.
前記選択部において、第4のモードが選択された場合、
指定された少なくとも一つの前記3Dモデルは、人体の少なくとも一部の3Dモデルを含み、
前記変更部は、前記人体の少なくとも一部の3Dモデル上の仮想超音波プローブを当てる位置を変更可能であって、
前記表示制御部は、前記仮想超音波プローブの動きに応じた、仮想超音波画像を前記表示画面に表示させることを特徴とする請求項1に記載の画像生成装置。
When the fourth mode is selected in the selection unit,
the at least one designated 3D model includes a 3D model of at least a portion of a human body;
The change unit is capable of changing a position on the 3D model of at least a part of the human body to which a virtual ultrasound probe is applied,
The image generating device according to claim 1 , wherein the display control unit causes a virtual ultrasound image corresponding to the movement of the virtual ultrasound probe to be displayed on the display screen.
前記選択部において、第5のモードが選択された場合、
指定された少なくとも一つの前記3Dモデルは、人体の少なくとも一部の3Dモデルを含み、
前記変更部は、前記人体の少なくとも一部の3Dモデルに仮想内視鏡を挿入するように、前記3Dモデルの状態を変更可能であって、
前記表示制御部は、前記仮想内視鏡の動きに応じた、仮想内視鏡画像を前記表示画面に表示させることを特徴とする請求項1に記載の画像生成装置。
When the fifth mode is selected in the selection unit,
the at least one designated 3D model includes a 3D model of at least a portion of a human body;
The change unit is capable of changing a state of the 3D model so as to insert a virtual endoscope into at least a part of the 3D model of the human body,
The image generating apparatus according to claim 1 , wherein the display control unit causes a virtual endoscopic image corresponding to a movement of the virtual endoscope to be displayed on the display screen.
前記データベース格納される前記3Dモデル群には、医学的モデル、獣医学的モデル、並びに医療機器および器具モデルが含まれることを特徴とする請求項1に記載の画像生成装置。 The image generating device according to claim 1, characterized in that the group of 3D models stored in the database includes medical models, veterinary models, and medical equipment and instrument models. 前記表示画面に表示された前記3Dモデルを含む画像を取得するための情報または画像ファイルを生成して出力する出力部をさらに有することを特徴とする請求項1に記載の画像生成装置。 The image generating device according to claim 1, further comprising an output unit that generates and outputs information or an image file for acquiring an image including the 3D model displayed on the display screen. 3Dモデルを用いた医療用の画像の生成方法であって、
ユーザからの指示に基づいてモードを選択し、
前記ユーザからの前記3Dモデルの指定を受け付け、
指定された少なくとも一つの前記3Dモデルを、3Dモデル群が格納されたデータベースから取得し、
選択された前記モードに応じた、前記3Dモデルに対する状態の変更要求に基づいて、前記3Dモデルの状態を変更し、
変更された状態の前記3Dモデルを含む画像を表示画面に表示することを特徴とする画像の生成方法。
A method for generating medical images using a 3D model, comprising:
Select a mode based on user instructions,
Accepting a designation of the 3D model from the user;
Obtaining at least one of the specified 3D models from a database in which a group of 3D models is stored;
changing a state of the 3D model based on a state change request for the 3D model according to the selected mode;
A method of generating an image, comprising: displaying an image including the 3D model in a modified state on a display screen.
プログラム
請求項9に記載の画像の生成方法をコンピュータに実行させることを特徴とするプログラム。
10. A program for causing a computer to execute the image generating method according to claim 9.
請求項1に記載の画像生成装置を用いて生成された画像。 An image generated using the image generating device according to claim 1.
JP2023089474A 2023-05-31 2023-05-31 IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE Pending JP2024172049A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023089474A JP2024172049A (en) 2023-05-31 2023-05-31 IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023089474A JP2024172049A (en) 2023-05-31 2023-05-31 IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE

Publications (1)

Publication Number Publication Date
JP2024172049A true JP2024172049A (en) 2024-12-12

Family

ID=93798406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023089474A Pending JP2024172049A (en) 2023-05-31 2023-05-31 IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE

Country Status (1)

Country Link
JP (1) JP2024172049A (en)

Similar Documents

Publication Publication Date Title
Sánchez-Margallo et al. Application of mixed reality in medical training and surgical planning focused on minimally invasive surgery
US12308099B2 (en) Extended reality medical report generating system
Wiet et al. Virtual temporal bone dissection: an interactive surgical simulator
Egger et al. HTC Vive MeVisLab integration via OpenVR for medical applications
JP6081907B2 (en) System and method for computerized simulation of medical procedures
Lundstrom et al. Multi-touch table system for medical visualization: Application to orthopedic surgery planning
JP2021512440A (en) Patient Engagement Systems and Methods
CN106569673B (en) Display method and display equipment for multimedia medical record report
Smith et al. Mixed reality interaction and presentation techniques for medical visualisations
Devoto et al. Highly accurate, patient-specific, 3-dimensional mixed-reality model creation for surgical training and decision-making
US12333659B2 (en) Systems and methods for displaying layered augmented anatomical features
Sánchez-Margallo et al. Use of natural user interfaces for image navigation during laparoscopic surgery: initial experience
US20240046555A1 (en) Arcuate Imaging for Altered Reality Visualization
Magalhães et al. Mixed reality in the operating room: A systematic review
Jani et al. Virtual reality and its transformation in forensic education and research practices
Izard et al. NextMed: How to enhance 3D radiological images with Augmented and Virtual Reality
Urs AI-Powered 3D Reconstruction from 2D Scans
Finos et al. Mixed reality in interventional radiology: a focus on first clinical use of XR90 augmented reality-based visualization and navigation platform
Bergonzi et al. An augmented reality approach to visualize biomedical images
Bhat et al. A Framework to Enhance the Experience of CBCT Data in Real-Time Using Immersive Virtual Reality: Impacting Dental Pre-Surgical Planning
Le et al. A web-based augmented reality approach to instantly view and display 4D medical images
Vloeberghs et al. Virtual neurosurgery, training for the future
JP2024172049A (en) IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, PROGRAM, AND IMAGE
Torabinia et al. Single evaluation of use of a mixed reality headset for intra-procedural image-guidance during a mock laparoscopic myomectomy on an ex-vivo fibroid model
Keser et al. Exploring requirements for neurosurgical augmented reality: design and evaluation of an infrared-based inside-out tracking approach on hololens 2